AI for Good: De Academische Pijplijn naar Post-Humaan Bestuur

De gevaarlijkste revoluties vinden niet plaats op de barricades, maar in academische tijdschriften. Terwijl de publieke aandacht zich richt op AI-chatbots en autonome voertuigen, ontvouwt zich op de achtergrond, binnen onderzoeksinstituten wereldwijd, een veel fundamentelere transformatie: de systematische constructie van wat we een techno-bestuurlijke infrastructuur zouden kunnen noemen.

En ja, dit alles kan worden onderbouwd met papers die zijn gepubliceerd in hedendaagse wetenschappelijke tijdschriften.

Elk van deze papers of projecten richt zich op een afzonderlijk probleem, zoals het ethischer maken van AI, het verbeteren van beleidsvorming of het optimaliseren van de toewijzing van middelen. Op zichzelf lijken deze inspanningen onschuldig – misschien zelfs nuttig. Maar wanneer ze worden samengevoegd, onthullen ze een uitgebreide pijplijn die ontworpen is om menselijk oordeel volledig uit bestuursprocessen te verwijderen. De architectuur opereert via vijf geïntegreerde fases, elk ondersteund door een uitgebreide academische literatuur die zowel de theoretische rechtvaardiging als de implementatie-stappenplannen levert.

Wat hieruit naar voren komt, is geen toevallige samenloop van omstandigheden, maar een systematische voorbereiding op een post-humane administratieve staat.

Voordat we in de details duiken, volgt hier een kort overzicht van de vijf fases die de menselijke autonomie steeds verder inperken, totdat alleen nog het afhandelen van zeldzame uitzonderingen overblijft:

  • Fase 1: Digitale Tweelingen → Kwantificeerbare Modellen.
    Elk domein van menselijke activiteit wordt omgezet in computationele ‘digital twin’-modellen. Dit creëert grootschalige simulaties van de echte wereld.
  • Fase 2: Computationele Ethiek → Automatische Morele Oordelen.
    Morele redeneringen worden in algoritmes gecodeerd, waardoor AI-systemen in real-time contextgevoelige ethische beslissingen kunnen nemen.
  • Fase 3: AI-gestuurd Opstellen → Beleid & VN-Resoluties.
    Grote taalmodellen (LLM’s) genereren beleidsdocumenten en zelfs internationale resoluties, waarmee wetgevende en diplomatieke processen effectief worden geautomatiseerd.
  • Fase 4: Programmeerbare Infrastructuur → Handhaving in de Praktijk.
    Slimme infrastructuur, zoals financiële netwerken en IoT-steden, handhaaft beslissingen automatisch doordat naleving direct in de code van de omgeving is ingebakken.
  • Fase 5: Feedback Loop → Continue Verfijning.
    Data uit de handhaving wordt teruggekoppeld naar de digitale tweelingen en ethische engines, waardoor zelfverbeterende bestuurssystemen ontstaan. Mensen worden steeds meer buitenspel gezet en hoeven alleen nog toezicht te houden wanneer de machines een uitzondering signaleren die buiten hun geprogrammeerde kaders valt.

Elke fase wordt ondersteund door actief onderzoek en bestaande pilot-implementaties.

Samengenomen documenteren deze werken een techno-bestuurlijke architectuur waarin mensen overbodig worden voor de dagelijkse besluitvorming. Ze worden gereduceerd tot het afhandelen van de uitzonderingen van het systeem.

Fase 1: Digitale Tweelingen → Kwantificeerbare Modellen

Alomvattende Simulatie. De basis wordt gelegd door elke uithoek van de samenleving om te zetten in een kwantificeerbaar digitaal model. Zogenaamde ‘digital twins’ creëren een virtuele spiegel van de echte wereld, van domeinen als landbouw [1] en gezondheidszorg [2] tot stedelijke infrastructuur en zelfs volledige ecosystemen, waardoor algoritmische monitoring en simulatie mogelijk worden. De Verenigde Naties hebben deze aanpak expliciet omarmd: een in 2023 door de VN gesteund ‘Actieplan voor een Duurzame Planeet in het Digitale Tijdperk’ roept op tot het bouwen van ‘Planetaire Digitale Tweeling’-systemen die de gezondheid van de biosfeer en de interacties met economische en sociale systemen kunnen meten, monitoren en modelleren. Met andere woorden: ontwikkel gedeelde, interoperabele modellen die zowel de natuur als menselijke activiteit op planetaire schaal omvatten. Een werkdocument van de Universiteit van de Verenigde Naties over het besturen van basismodellen legt op vergelijkbare wijze de basis voor overheidsbrede modellen die kunnen dienen als fundament voor wereldwijde digitale tweelingen van de samenleving.

Op het eerste gezicht zijn digitale tweelingen hulpmiddelen voor beslissingsondersteuning: ze ‘beantwoorden causale vragen via interventieanalyse’ en ‘verbeteren evidence-based beleidsvorming’. Maar in de praktijk vertegenwoordigen ze de werkelijkheid via een proxy. Wanneer beleidsbeslissingen voortvloeien uit model-outputs in plaats van uit direct menselijk oordeel, wordt bestuur fundamenteel losgekoppeld van de geleefde ervaringen van mensen. De digitale tweeling spiegelt niet alleen de realiteit; het definieert in toenemende mate wat als werkelijkheid telt. Als de observaties van een gemeenschap ter plaatse in strijd zijn met de voorspellingen van het model, zijn het de data van het model die de actie zullen sturen. Na verloop van tijd verschuift de autoriteit van menselijke interpretatie naar machinale interpretatie.

De implicaties strekken zich uit over alle domeinen. Er bestaan raamwerken voor digitale tweelingen in de precisielandbouw [3] die boerderijen tot op de plant nauwkeurig modelleren; digitale tweelingen in de gezondheidszorg die individuele lichamen of hele bevolkingsgroepen simuleren; en stedelijke tweelingen die stadsverkeer, energieverbruik en openbaar gedrag weerspiegelen. Elk van deze belooft efficiënter beheer. Maar collectief veranderen ze menselijke aangelegenheden in input voor algoritmisch toezicht. Beslissingen die ooit afhingen van politieke deliberatie of de intuïtie van experts, kunnen worden overgedragen aan simulaties. Dit creëert een schijn van objectiviteit – het model ‘volgt immers gewoon de data’. In werkelijkheid voegt het een laag van computationele controle toe tussen bestuurders en degenen die bestuurd worden. De wereld wordt gefilterd door een dataset en een codebase. De werkelijkheid wordt alleen nog leesbaar via de tweeling.

Cruciaal is dat deze modellen op transnationale schaal worden gebouwd. Het eerder genoemde VN-werkdocument spreekt over planetaire modelleercapaciteiten en gedeelde, grensoverschrijdende systemen. Dit overstijgt de nationale soevereiniteit. Als meerdere overheden vertrouwen op één enkele planetaire simulator voor bijvoorbeeld klimaatbeleid of pandemische respons, verschuift de werkelijke macht naar wie het model en zijn parameters beheert. De basis wordt gelegd voor wereldwijde technocratische coördinatie via uniforme simulaties. Beleid wordt geharmoniseerd (of beperkt) door het af te stemmen op dezelfde outputs van de digitale tweeling. In feite creëren digitale tweelingen een zachte infrastructuur voor wereldwijd bestuur, onder het mom van neutrale wetenschap en efficiëntie.

Samengevat vervangt Fase 1 het rommelige, lokale, menselijke begrip door schone, gecentraliseerde, machineleesbare modellen. Het is de eerste stap in de onderwerping van de werkelijkheid aan algoritmische systemen. Zodra elk aspect van de samenleving is vertegenwoordigd in data en code, is de weg vrij om menselijk oordeel te vervangen door geautomatiseerde logica.

Fase 2: Computationele Ethiek → Automatische Morele Oordelen

Morele Machines. Het coderen van waarden en normen direct in software is de volgende stap. Traditionele beleidsbeslissingen omvatten ethische afwegingen: een balans tussen zaken als rechtvaardigheid en nut, rechten en risico’s. Fase 2 stelt de vraag: waarom laten we machines die oordelen niet automatisch vellen? Als digitale tweelingen een kwantitatief model van de wereld bieden, kan een laag van computationele ethiek fungeren als een ingebouwd geweten, dat elke potentiële actie toetst aan vastgelegde morele principes.

Dit is geen sciencefiction; het is een actief onderzoeksgebied. In hun paper uit 2024, ‘Sustainable AI and the third wave of AI ethics’ [4], betogen Larissa Bolte en Aimee van Wynsberghe dat AI-ethiek een structurele wending nodig heeft. Het moet verder kijken dan enge, casuïstische problemen en het hele sociaal-technische systeem over de ‘levenscyclus’ van een AI aanpakken. In plaats van alleen een algoritme ‘eerlijker’ te maken of hier en daar een ethische toets toe te voegen, pleiten zij ervoor om ethiek te verankeren in de infrastructuur en workflows van AI-ontwikkeling en -implementatie. In de praktijk betekent dit dat morele overwegingen worden meegenomen van begin tot eind — van dataverzameling en modelbouw tot integratie en monitoring — in plaats van ethiek te behandelen als een extern adviesproces. Deze visie effent de weg voor het inbouwen van ethisch toezicht in de code zelf [5]. Als elk AI-systeem wordt ontwikkeld met structurele ethische richtlijnen, kan menselijke morele interventie naar de achtergrond verdwijnen.

Concrete implementaties duiken al op. Upreti, Ciupa & Belle (2025) introduceren een prototype ‘ethische redeneerder‘ [6] dat kennisrepresentatie en -redenering (KRR) combineert met probabilistische logica om real-time, contextgevoelige ethische oordelen te vellen. Hun raamwerk combineert formele regels, zoals die uit de filosofie of de wet, met statistische redeneringen om onzekerheid en nuance te hanteren. Het resultaat is een AI-systeem dat morele beslissingen direct kan aanpassen aan verschillende scenario’s – in wezen een geautomatiseerde ethische scheidsrechter die voortdurend de opties van een ander AI- of robotsysteem beoordeelt.

Een andere aanpak van Meenalochini Pandi (2025) gebruikt ‘multi-objective reinforcement learning‘ om AI-agenten expliciete ethische beperkingen mee te geven [7]. Deze methode codeert deontologische (regelgebaseerde) en utilitaristische (resultaatgebaseerde) principes direct in de beloningsfunctie van de AI tijdens de training. Simpel gezegd wordt de definitie van ‘succes’ voor de AI aangepast om naast prestatiedoelen ook morele doelen te omvatten. De beloning van een zelfrijdende auto is dan bijvoorbeeld niet alleen het snel bereiken van een bestemming (prestatiedoel), maar ook het minimaliseren van risico’s voor voetgangers (ethisch doel). Door het leerdoel zelf vorm te geven, is moraliteit geen externe controle meer, maar een geïnternaliseerd onderdeel van de beslissingscriteria van de agent.

Ondertussen schetsen Taofeek et al. (2024) praktische software-architecturen voor computationele ethiek [8]. Ze beschrijven patronen voor het vertalen van formele ethische theorieën — plichten, rechten, deugden — in inplugbare modules die aan AI-systemen kunnen worden toegevoegd. Men kan zich een bibliotheek van ‘ethiek-plugins’ voorstellen: één module zou Kantiaanse regels kunnen afdwingen (nooit liegen, nooit stelen), een andere zou utilitaristische afwegingen kunnen berekenen, en een derde zou menselijke deugden of eerlijkheid kunnen nabootsen. Ontwikkelaars van autonome systemen kunnen dan een mix van modules kiezen die past bij hun context. Cruciaal is dat dit vervangbare componenten zijn. Moraliteit wordt een kwestie van systeemontwerp, iets wat je configureert met selectievakjes en schuifregelaars: bijvoorbeeld 30% deontologie, 70% consequentialisme. De uitwisselbaarheid zelf onderstreept hoe onmenselijk deze morele redenering is — het is moraliteit als een app store.

Om deze inspanningen te ondersteunen, ontstaat er snel een ecosysteem van standaarden en best practices. De AAAI/ACM-conferentiereeks over AI, Ethiek en Samenleving (AIES) [9] presenteert tientallen papers over technische ethische implementaties. De Sustainable AI Coalition [10], een multi-stakeholder initiatief gefinancierd door grote bedrijven, publiceert richtlijnen voor ‘ethics-by-design’ in AI, in wezen een handleiding voor ingenieurs om systemen te bouwen die direct voldoen aan verschillende ethische kaders. In 2022 presenteerde een baanbrekend overzichtsartikel in Trends in Cognitive Sciences zelfs een taxonomie van computationele ethiekmethoden (regelgebaseerd vs. casusgebaseerd vs. machine learning) en een evaluatiekader voor morele redeneermodules [11]. De boodschap is duidelijk: het veld beschikt al over een breed scala aan volwassen technieken om ethische besluitvorming te automatiseren. Van logische redeneerders tot statistische waardeleerders, de gereedschapskist is vol. Dit marginaliseert verder elke overgebleven ‘mens in de lus’. Als een AI niet alleen uitkomsten kan berekenen, maar ook hun toelaatbaarheid kan bepalen volgens gecodeerde ethiek, waarom zou je dan nog een persoon nodig hebben om de keuzes goed te keuren?

Aan het einde van Fase 2 hebben we de contouren van een de facto technocratische moraalcode. Digitale tweelingen leveren de feiten; computationele ethiekmodules leveren de oordeelscriteria. Samen vormen ze een autonoom systeem dat kan beslissen wat er in een bepaalde situatie zou moeten gebeuren. Menselijke moraal wordt opgenomen in een algoritmische vorm — consistent, onvermoeibaar en zogenaamd onbevooroordeeld. Wat blijft er over voor menselijke besluitvorming? Misschien het af en toe bijwerken van de ethische parameters, vergelijkbaar met het patchen van software, of het beoordelen van zeldzame gevallen die de machine als onbeslisbaar markeert. Dagelijks wordt het oordeel van de machine steeds meer het laatste woord.

Fase 3: AI-gestuurd Opstellen → Beleid & VN-Resoluties

Automatisering van de Wet. Als AI-systemen de wereld kunnen begrijpen (Fase 1) en goed van kwaad kunnen onderscheiden (Fase 2), is de volgende logische stap: laat ze ook de regels schrijven. Fase 3 omvat het delegeren van het opstellen van beleid, wetten en zelfs internationale overeenkomsten aan AI. De redenering is eenvoudig: het schrijven van juridische en beleidsdocumenten is arbeidsintensief en complex, dus waarom zouden we geavanceerde taalmodellen niet het zware werk laten doen? In de afgelopen twee jaar hebben we op dit gebied opmerkelijke vooruitgang gezien, met name in de context van de Verenigde Naties en milieubeheer.

Liang et al. (2025) introduceerden UNBench, een benchmark-dataset om te evalueren hoe grote taalmodellen presteren op VN-achtige taken [12]. Ze verzamelden archieven van de VN-Veiligheidsraad uit de afgelopen decennia en gaven AI taken zoals: het opstellen van een resolutie voor een bepaald scenario, voorspellen hoe landen zouden stemmen en het genereren van diplomatieke verklaringen. De resultaten tonen aan dat huidige LLM’s (zoals GPT-modellen) inderdaad tekst kunnen produceren die sterk lijkt op echte VN-resoluties en toespraken. Ze kunnen de formele toon imiteren, de relevante feitelijke context verwerken en zelfs tot op zekere hoogte verschillende nationale perspectieven simuleren. In wezen bewees het experiment dat een AI kan functioneren als een junior diplomaat of beleidsmedewerker, in staat om de eerste concepten te genereren van de documenten die de internationale betrekkingen sturen.

Een ander voorbeeld komt uit het domein van zeebescherming. Ziegler et al. (2024) presenteerden een casestudy van een AI-chatbot voor de nieuw onderhandelde BBNJ-verdrag (Biodiversity Beyond National Jurisdiction) [13]. Deze chatbot, gebouwd op een groot taalmodel, kon vragen over het verdrag beantwoorden en zelfs standpunten of aanbevelingen opstellen met betrekking tot de bepalingen ervan. De motivatie was om beleidsmakers te helpen, met name die uit ontwikkelingslanden, door snelle en gearticuleerde analyses te bieden van een complex verdrag. Het voordeel is ‘efficiëntie’ en het gelijktrekken van het speelveld in onderhandelingen (aangezien niet elke delegatie zich legioenen juridische adviseurs kan veroorloven). Maar de duistere implicatie is dat de beleidstekst zelf nu door een machine wordt voorgesteld. Er werd vastgesteld dat de chatbot bevooroordeeld was: hij neigde ernaar de perspectieven van westerse experts te weerspiegelen en kon de standpunten van ontwikkelingslanden mogelijk marginaliseren.

Stel je deze vooringenomenheid op grote schaal voor: als de meeste landen op AI-assistenten vertrouwen om hun verklaringen op te stellen, zou het narratief subtiel kunnen verschuiven ten gunste van het wereldbeeld dat in de trainingsdata van de AI verankerd is.

Kramer et al. (2024) gingen nog een stap verder door AI te gebruiken om content te analyseren en te genereren rondom een echt Amerikaans beleidsdocument: Executive Order 14110 over AI-governance. De studie ‘Harnessing AI for efficient analysis of complex policy documents’ liet meerdere AI-systemen de executive order samenvatten, sleutelclausules extraheren en beleidsvragen erover beantwoorden [14]. Sommige AI-modellen presteerden bijna net zo goed als menselijke experts in het begrijpen van de inhoud – en deden dit veel sneller. Deze demonstratie suggereert dat AI’s niet alleen nieuw beleid kunnen opstellen, maar ook bestaand beleid kunnen interpreteren en bekritiseren. We zien hier het begin van machine-tot-machine beleidsloops: de ene AI schrijft een regulering, een andere AI evalueert deze en geeft feedback, en een mens hoeft misschien alleen nog maar de pingpong te overzien om te verzekeren dat er niets overduidelijk krankzinnigs gebeurt.

De adoptie in de praktijk is al gaande binnen overheidsteams. Törnberg & Törnberg (2024) documenteren voorbeelden van LLM-ondersteund opstellen in milieubeleid [15]. Beleidsanalisten gebruiken op GPT-gebaseerde tools om eerste concepten van rapporten te genereren, om puntsgewijze ideeën om te zetten in volwaardig proza, en om technische data te vertalen naar beleidsmakervriendelijke taal. Wat begon als autocomplete in onze e-mail, wordt nu autocomplete voor wetgeving. Het werkdocument van de UNU over een VN-rol in AI gaat zelfs zo ver dat het voorstelt dat VN-agentschappen gezamenlijk hun eigen grote taalmodel zouden kunnen bouwen en besturen om te assisteren bij beleidsvorming. Waarom afhankelijk zijn van OpenAI of Google als de VN een gespecialiseerde ‘UN-GPT’ zou kunnen hebben, getraind op decennia aan VN-verdragen en diplomatieke taal? Zo’n model, centraal beheerd, zou consistentie kunnen waarborgen en internationale normen (zoals gecodeerd in het model) over alle agentschappen heen kunnen handhaven.

Samengenomen wijzen de ontwikkelingen in Fase 3 op een toekomst waarin wetten en beleid al bij hun creatie door AI worden vooraf gekeurd. Een AI-beleidsopsteller zou de ethische beperkingen uit Fase 2 en de data uit Fase 1 ‘kennen’, zodat elke tekst die het produceert in lijn is met die systemen. Dit draait het traditionele script om: in plaats van dat mensen beleid schrijven dat AI moet volgen, krijgen we AI die beleid schrijft dat mensen moeten volgen. Menselijke wetgevers en onderhandelaars verdwijnen niet direct, maar hun rol verschuift naar die van redactioneel toezicht. Ze kunnen kiezen tussen door AI gegenereerde opties, hier en daar een formulering aanpassen, of het zeldzame scenario afhandelen waarin de AI onzeker is. Het zware werk van het verweven van feiten, normen en gewenste uitkomsten tot coherente juridische taal zal door de machine worden gedaan.

Men zou kunnen aanvoeren dat dit slechts geavanceerde tekstverwerking is – een tool om tijd te besparen. Maar overweeg de macht van agendasetting. Als het eerste concept van een wet van een AI komt, vormt dat het discours. Onderhandelingen beginnen met een tekst die door de machine is voorbereid. Deze kan kwesties op een bepaalde manier framen, bepaalde zorgen weglaten, of compromissen voorstellen die subtiel de nadruk van het beleid verschuiven. Tenzij mensen extreem waakzaam zijn, worden deze keuzes ingebakken. En aangezien de AI-concepten sneller en aantoonbaar vollediger zijn dan wat een persoon of commissie kan produceren, zal er een neiging zijn om ze te vertrouwen. ‘Dit is evidence-based en ethisch gescreend’, zullen ze zeggen, ‘waarom het wiel opnieuw uitvinden?’ Zo vermindert Fase 3 de menselijke autonomie verder: we bewegen van het goedkeuren en aanpassen van door AI gegenereerde beleidsstukken, naar het uiteindelijk simpelweg afstempelen ervan, omdat ze consequent aan alle formele eisen voldoen.

Fase 4: Programmeerbare Infrastructuur → Handhaving in de Praktijk

Code als Wet, Letterlijk. Beleid opstellen is één ding; het handhaven is iets anders. Traditioneel is zelfs een goed geschreven wet afhankelijk van menselijke instituties zoals rechtbanken, politie en toezichthouders om deze te handhaven – met alle frictie en discretie die daarbij komen kijken. Fase 4 dicht deze kloof door beleid direct te verankeren in programmeerbare infrastructuur. De fysieke en digitale systemen waarmee we dagelijks interageren – financiële netwerken, stadssensoren, surveillancesystemen, het Internet of Things [16] – worden ontworpen om regels automatisch te handhaven op het moment van actie. Dit is ‘wet als code’ in de meest letterlijke zin: als je probeert X te doen en het is niet toegestaan, zal de transactie simpelweg niet doorgaan.

Neem de financiële infrastructuur. Central Bank Digital Currencies (CBDC’s) zijn een voorbeeld. Dit zijn digitale vormen van geld, uitgegeven door overheden, bedoeld om contant geld uiteindelijk te vervangen of aan te vullen. Maar in tegenstelling tot contant geld, kunnen CBDC’s (of de wallets waarin ze zitten) geprogrammeerd worden. Een veelgeprezen functie is de mogelijkheid om voorwaarden te koppelen aan hoe geld wordt uitgegeven. Een stimuleringssubsidie kan bijvoorbeeld zo worden gecodeerd dat deze alleen kan worden besteed aan bepaalde items, of een koolstofbelasting kan automatisch worden ingehouden bij transacties waarbij fossiele brandstoffen betrokken zijn. In een prototype van de Bank of England of de BIS kun je je ‘slim geld’ voorstellen dat koolstofbudgetten handhaaft: als je je persoonlijke koolstoflimiet voor de maand hebt bereikt, kan je digitale portemonnee de aankoop van vliegtickets of benzine weigeren. Op dezelfde manier zouden tegoeden ingebouwde ‘social credit’-controles kunnen hebben: als iemand op een lijst van wetshandhavers staat, kan hun toegang tot bepaalde financiële diensten automatisch worden ingeperkt. Dit zijn geen vergezochte scenario’s; de technologie wordt al getest. De Duitse Bundesbank merkte op dat CBDC’s ‘geautomatiseerde belastinginning’ en ‘geautomatiseerde distributie van consumentenhulp’ mogelijk zouden kunnen maken door regels in transacties in te bedden [17]. Zodra het geld zelf het beleid draagt, wordt naleving op het moment van betaling afgedwongen – geen accountants of politie nodig.

Pas dit concept nu toe op het stadsleven. Slimme stads-infrastructuren maken gebruik van netwerken van camera’s, sensoren en toegangscontroles. Veel steden hebben al geautomatiseerde verkeershandhaving en congestieheffingen. Als uitbreiding hiervan zou een ‘15-minutenstad’-raamwerk gekoppeld kunnen worden aan IoT-sensoren [18] om beweging buiten een lokale zone te ontmoedigen of te beperken, in naam van het verminderen van de ecologische voetafdruk of het verkeer. Kentekencamera’s zouden bijvoorbeeld automatisch bestuurders kunnen beboeten die te vaak hun aangewezen district verlaten. Toegangssystemen voor slimme gebouwen zouden de toegang kunnen weigeren als je niet op een bepaald tijdstip op een locatie geautoriseerd bent. Drones zouden kunnen monitoren of mensen samenscholen in verboden gebieden en waarschuwingen kunnen sturen of zelfs robotische verspreidingsmethoden kunnen inzetten. Dit is allemaal technisch haalbaar; het is slechts een kwestie van beleidsconfiguratie.

Een levendig voorbeeld is hoe Executive Order 14110 [19] in de VS eisen stelde voor ‘veilige, beveiligde en betrouwbare’ AI binnen federale agentschappen [20]. Het verplicht agentschappen om ervoor te zorgen dat AI-systemen grondig worden getest op vooringenomenheid, beveiligd zijn tegen dreigingen en in lijn zijn met waarden – in wezen worden bestuursregels ingebed in de AI’s die de overheid gebruikt. Maar naast intern gebruik, stuurt het ook de ontwikkeling van raamwerken aan om AI in de private sector te monitoren en te controleren. De rode draad is duidelijk: de overheid stelt de normen (Fase 3-beleid), en eist vervolgens dat elke AI die wordt ingezet in de financiële sector, gezondheidszorg of kritieke infrastructuur, die controles heeft ingebouwd (Fase 4-handhaving-by-design). Het memorandum dat de Executive Order implementeert, spreekt zelfs van het bouwen van een ‘wereldwijde AI-governance’-aanpak met internationale partners, wat duidt op wereldwijde interoperabele nalevingsmechanismen.

Programmeerbare infrastructuur betekent dat naleving geen keuze meer is. Als de snelheidslimiet in de navigatie van je auto is gecodeerd – misschien via geofencing – zal deze simpelweg niet harder accelereren binnen die zone. Als contentregels in de kern van het internet zijn gecodeerd, kan ongeoorloofde informatie in real-time worden gefilterd of geblokkeerd zonder afhankelijk te zijn van individuele moderators. Als sociale voorzieningen worden gecodeerd met criteria, zullen oninbare personen simpelweg merken dat hun uitkeringsportemonnee geen transacties uitvoert bij niet-geautoriseerde winkeliers.

De omgevingsautomatisering van consequenties verandert het sociale contract fundamenteel. Onder menselijke handhaving hebben wetten een zekere mate van flexibiliteit en genade – een politieagent kan een waarschuwing geven in plaats van een bekeuring, een rechter kan clementie tonen, wetten kunnen worden overtreden uit burgerlijke ongehoorzaamheid om hervorming af te dwingen. Onder geautomatiseerde handhaving worden regels rigide toegepast door algoritmen zonder inherente speelruimte. De enige manier om aan te passen, is door de code te veranderen (waarschijnlijk beheerd door een gecentraliseerde autoriteit of de AI zelf) – niet door een beroep te doen op menselijk oordeel op dat moment. Daar zal simpelweg niemand zijn om een beroep op te doen.

Tegen het einde van Fase 4 hebben we het onderscheid tussen wet en handhaving effectief geëlimineerd. De beleidsoutputs van Fase 3 worden direct geïnstantieerd in de infrastructuur om ons heen. Dit kan positief worden geframed als ‘rechtsstaat, perfect toegepast’. Geen vooringenomenheid van corrupte ambtenaren, geen inconsistentie. Maar het betekent ook heerschappij door code – en als je geen inspraak had in het schrijven van die code (of zelfs niet kunt stemmen op iemand die dat wel kan), dan is dat jammer. Mensen in deze fase worden gereduceerd tot het onderhouden van het systeem en het afhandelen van uitzonderlijke gevallen, maar het dagelijkse bestuur (wie wat kan doen, wanneer, waar) is een uitgemaakte zaak die door machines wordt uitgevoerd.

Fase 5: Feedback Loop → Continue Verfijning

Zelf-optimaliserend Bestuur. Het laatste puzzelstuk is het creëren van een gesloten-lussysteem waarbij de uitkomsten van Fase 4 worden teruggekoppeld naar de modellen van Fase 1 en de ethiek van Fase 2, waardoor de hele pijplijn continu wordt verfijnd. In cybernetische termen wordt hiermee een tweede-orde feedbacklus opgezet: we besturen niet alleen het systeem, maar het systeem leert ook om zichzelf beter te besturen.

Hoe werkt dit? Naarmate de programmeerbare infrastructuur wordt uitgerold, genereert deze enorme hoeveelheden data over naleving en uitkomsten. Elke meting van een IoT-sensor, elke toegestane of geblokkeerde transactie, elke door AI gemonitorde beslissing wordt telemetrie. Deze data stromen terug naar de digitale tweelingen en AI-modellen [21]. Als de digitale tweeling van een elektriciteitsnet bijvoorbeeld opmerkt dat huishoudens consequent manieren vinden om een energiebesparende maatregel te omzeilen (bijvoorbeeld door gasgeneratoren te gebruiken om slimme meters te omzeilen), kan dat inzicht leiden tot een beleidsaanpassing of een aanpassing van de infrastructuur. Misschien zal de volgende generatie slimme meters off-grid energieverbruik detecteren en rapporteren, waardoor de maas in de wet wordt gedicht. Wanneer een autonome ethische agent in een zelfrijdende auto een onvoorzien moreel dilemma tegenkomt en dit voor menselijke beoordeling markeert, kan dat scenario worden toegevoegd aan de kennisbank van de ethische redeneermodule, zodat er de volgende keer geen menselijke hulp meer nodig is.

De sleutel is het institutionaliseren van het leerproces. De AAAI/ACM AIES-conferenties [22] en de Sustainable AI Coalition [23] publiceren niet alleen papers in een vacuüm; ze voeden direct de evoluerende standaarden. Stel bijvoorbeeld dat er vooringenomenheid wordt ontdekt in een gezichtsherkenningssysteem dat wordt gebruikt voor openbare veiligheid. Binnen een feedbackregime zou die ontdekking leiden tot nieuwe eerlijkheidsmetrieken of richtlijnen voor trainingsdata, uitgegeven door de coalitie, die ontwikkelaars vervolgens integreren in de volgende generatie systemen. De hele gemeenschap verbetert iteratief de ethische prestaties van AI (althans, volgens de gecodeerde waarden). Na verloop van tijd worden deze standaarden strenger en uitgebreider naarmate ze ‘lessen uit het veld’ verwerken. Wat we hier zien is de opkomst van bestuur over bestuur – meta-regulering waarbij het proces zichzelf corrigeert.

De oproep van Bolte & van Wynsberghe voor een levenscyclus-brede structurele aanpak (de ‘structurele wending’) [24] is in wezen een pleidooi voor dit soort continue herkalibratie. Ze stellen dat focussen op algoritmische bias in één model kortzichtig is; we moeten systemische, structurele problemen aanpakken. In de praktijk betekent dat: als het sociaal-technische systeem als geheel vermeende schade produceert, moet men de structuur van het systeem aanpassen, niet alleen individuele componenten repareren. Binnen onze pijplijn vertaalt dat perspectief zich naar: het aanpassen van de modellen, de ethische criteria en het beleid gezamenlijk, in het licht van waargenomen uitkomsten, met als doel de dieperliggende oorzaken van schade aan te pakken. Het is vergelijkbaar met hoe moderne software wordt ontwikkeld – constant ‘over the air’ bijgewerkt na de release. Stel je nu een bestuur voor dat zichzelf constant bijwerkt via auto-patch. En realiseer je dan dat geen mens ooit zo’n continu bijwerkend systeem zou ontwerpen.

Een voorbeeld: als data aantonen dat een zogenaamd neutraal AI-beleid er toch toe leidt dat ‘gemarginaliseerde gemeenschappen’ slechtere uitkomsten ervaren, zou de structurele aanpak een oplossing vereisen die verder gaat dan die lokale context. Het zou kunnen leiden tot het toevoegen van nieuwe sociaal-economische factoren aan de digitale tweelingen, het aanpassen van de ethische gewichten in de beslissingsfunctie van de AI om rechtvaardigheid te benadrukken, en misschien het veranderen van de handhavingsdrempels in de infrastructuur om in de getroffen gebieden soepeler te zijn. Al deze veranderingen kunnen plaatsvinden via een gecoördineerde update, uitgegeven door een toezichthoudend orgaan of zelfs door een AI-opzichter die het patroon opmerkt.

Zo streeft Fase 5 naar een soort homeostatisch bestuur: de pijplijn monitort zijn eigen prestaties en past zichzelf aan om de gewenste balans van waarden zoals eerlijkheid, veiligheid of zelfs duurzaamheidsclaims te handhaven. Mensen zijn voornamelijk betrokken bij het vaststellen van de overkoepelende doelen of het reageren op afwijkingen die het systeem signaleert. Maar zelfs die afwijkingen, zoals opgemerkt, nemen in aantal af naarmate elke afwijking een kans is voor het systeem om een oplossing te leren en te integreren, waardoor de mens uiteindelijk overbodig wordt.

Door de lus te sluiten, wordt het techno-bestuurssysteem steeds autonomer en ondoorzichtiger. Het is één ding voor mensen om een statisch systeem met bekende regels te ontwerpen. Het is iets heel anders wanneer het systeem zichzelf dynamisch verandert op basis van complexe criteria. Op dat punt zullen zelfs experts moeite hebben om te begrijpen waarom een bepaalde beslissing werd genomen of een bepaalde regel werd bijgewerkt. Het officiële antwoord zal zijn: ‘Onze modellen tonen aan dat dit de metrieken voor eerlijkheid/veiligheid/etc. maximaliseert’. De realiteit zal zijn dat geen enkel individu de logische keten van ruwe data, via machine-learning modellen, via multi-objectieve optimalisaties, tot de uiteindelijke beslissing kan doorgronden. Bestuur wordt op zichzelf een ‘AI-hard’ probleem, en beroep aantekenen zal onmogelijk zijn, omdat alleen de machine zelf de logica kan begrijpen.

Echter, vanuit het perspectief van efficiëntie en ‘goed bestuur’, is Fase 5 de sluitsteen die een zelf-perfectionerend systeem belooft. Het suggereert dat we eindelijk de eeuwige tekortkomingen van bestuur – corruptie, starheid, informatielacunes – kunnen overwinnen door het systeem zichzelf te laten afstellen. Dit is bestuur dat zijn eigen staart opeet, hopend op een opwaartse spiraal van verbetering.

Nadat we door de vijf kernfasen zijn gelopen, zien we een pijplijn die begint met het modelleren van de wereld, overgaat naar het moreel evalueren van acties, het opstellen van regels, het automatisch handhaven ervan, en vervolgens leert van de resultaten. Bij elke fase zijn mensen verder uit de lus verdwenen: van actieve besluitvormers naar toezichthouders, naar technici die de machinerie draaiende houden. Maar ongelooflijk genoeg eindigt het verhaal hier niet. Er is nog een geïmpliceerde fase – een Fase 6 – die net buiten de horizon van deze papers opdoemt.

Want als de enige overgebleven zwakke schakel de onvoorspelbaarheid van de menselijke geest is… wat gebeurt er dan precies?

Fase 6: De Neurale Grens → Directe Bewustzijnsintegratie

Cognitieve Inlijving. De logische culminatie van een systeem dat de samenleving modelleert en beheert, is om uiteindelijk de individuele menselijke cognitie zelf te modelleren en te beheren. In een pijplijn die menselijke fouten en onvoorspelbaarheid wil elimineren, is de ultieme ‘zwakke schakel’ die overblijft, de menselijke geest. De volgende grens – nog niet volledig gerealiseerd, maar duidelijk voorgespiegeld – is de directe integratie van menselijke hersenen met het computergestuurde bestuurssysteem via brein-computerinterfaces (BCI’s) [25] en alomtegenwoordige neuro-monitoring.

Het klinkt als sciencefiction, maar denk aan het momentum: overheden [26] en bedrijven investeren zwaar in neurowetenschappen en BCI’s [27], met apparaten zoals Neuralink die vanaf 2025 al in menselijke proeven worden getest [28]. Dezelfde instituties die computationele ethiek promoten, beginnen nu neuro-ethiek te verkennen [29]: hoe BCI’s te reguleren en te ontwerpen zodat ze in lijn zijn met ethische normen. Het patroon van Fase 2 herhaalt zich, maar dan naar binnen gericht: net zoals we morele principes in externe AI-agenten codeerden, zullen we aanvaardbare gedachtepatronen en reacties in aan de hersenen gekoppelde apparaten coderen. De grens tussen ‘AI-agent’ en ‘geaugmenteerde mens’ zal met de tijd vervagen.

Waarom zou men dit nastreven? Vanuit een bestuursperspectief biedt het direct integreren van menselijke besluitvormers met machines nog grotere controle (en efficiëntie). Denk aan soldaten of piloten met BCI’s die real-time AI-begeleiding en monitoring van hun beslissingen mogelijk maken – de militaire voordelen zijn evident. Of denk aan juridische of uitvoerende beslissingen: een BCI zou kunnen signaleren wanneer de hersenen van een rechter patronen van vooringenomenheid of emotie vertonen, en hem aansporen een uitspraak te heroverwegen in het licht van ‘rationeel’ AI-advies. Aan de andere kant, voor gewone burgers, zou een BCI je kunnen waarschuwen wanneer je op het punt staat een wet te overtreden of zelfs je emoties en impulsen in een pro-sociale richting kunnen sturen (een plotselinge kalmte die over je heen komt tijdens een ruzie, met dank aan de interventie van je neurale implantaat).

Deze convergentie wijst op de realisatie van wat Julian Huxley (de eerste directeur van UNESCO en voorstander van transhumanisme [30]) voor ogen had: de mensheid die technologie gebruikt om zichzelf doelbewust te overstijgen. Huxley zag onze soort als een werk in uitvoering, dat we bewust konden evolueren naar een hogere staat. Eind jaren ’40 pleitte hij voor wetenschappelijke mensverbetering – met controversiële flirtaties met eugenetica – en bedacht ‘transhumanisme’ als doel. De pijplijn die we hebben beschreven is in wezen transhumanisme op het gebied van bestuur: het vervangt feilbaar menselijk oordeel door een ‘hogere’ vorm van besluitvorming. De neurale integratie zou menselijke geesten samenvoegen met een computationeel systeem, waarmee Huxley’s droom wordt vervuld – hoewel misschien niet op de utopische manier die hij voorstelde.

[Afbeelding: Cover van Julian Huxley’s boek “UNESCO: Its Purpose and its Philosophy”.]
Alt-tekst: Boekomslag van ‘UNESCO: Its Purpose and its Philosophy’ door Julian Huxley.

Futuriste Barbara Marx Hubbard sprak over een komende fase van menselijke evolutie die ze Bewuste Evolutie noemde. Ze stelde zich voor dat de mensheid als geheel bewust zou samenwerken om te evolueren naar een nieuwe planetaire soort, waarbij ze vaak het idee van de ‘noösfeer‘ [31] aanhaalde, het collectieve bewustzijn van de mens. Teilhard de Chardin’s notie van het Omega Punt was een bijna mystiek idee dat uiteindelijk alle geesten met elkaar en uiteindelijk met het goddelijke zouden samensmelten, en een punt van ultieme complexiteit en bewustzijn zouden bereiken. Voor Teilhard was het spiritueel, maar het zou op een vergelijkbare manier geïnterpreteerd kunnen worden in een technologisch licht vandaag de dag (denk aan Kurzweil’s AI Singulariteit [32], of een ‘global brain‘ [33]).

Wat opvalt, is hoe onze pijplijn gezien kan worden als een architectuur voor het bereiken van een kunstmatig quasi-Omega Punt; door iedereen te verbinden met de digitale tweelingen, AI-engines en beleidsnetwerken, wordt het individuele bewustzijn onderdeel van het grotere circuit. We verliezen niet noodzakelijkerwijs ons persoonlijk bewustzijn, maar onze beslissingen en percepties worden steeds meer gesynchroniseerd en geleid door de centrale intelligentie. In feite wordt onze menselijke autonomie geadopteerd door de machine. Het bestuurssysteem zou rechtstreeks via onze zenuwstelsels lopen.

In dat stadium verdwijnt het onderscheid tussen menselijke en AI-besluitvorming vrijwel volledig. We praten vaak over het houden van een ‘mens in de lus’. Fase 6 absorbeert de mens in de lus. Onze gedachten zouden waarschijnlijk standaard worden aangevuld met AI-query’s, terwijl onze intenties gemonitord kunnen worden aan de hand van ethische benchmarks met waarschuwingen als ‘Deze gedachtegang dreigt de publieke harmonie te schenden, overweeg alternatieven’. Onze hersenen zouden zelfs kunnen dienen als gewoon een andere databron voor de digitale tweelingen – onze emoties, stressniveaus en houdingen die in real-time het maatschappelijke model voeden, de hele tijd. Het systeem staat altijd aan, er is geen ‘buiten’ meer.

Sommigen zouden ongetwijfeld beweren dat dit de ultieme democratisering van bestuur is – iedereen draagt bij aan de collectieve beslissingen, in plaats van een paar elites. Maar dat zou een zeer gulle interpretatie zijn. Het is veel waarschijnlijker dat deze integratie volledig asymmetrisch zou zijn: het systeem zou zijn toegang gebruiken om de individuele cognitie te vormen in de richting van wat het optimaal acht voor het geheel, terwijl het individu vrijwel geen kans zou hebben om het systeem op zijn beurt te beïnvloeden. De eeuwenoude filosofische droom… nou ja, nachtmerrie… van Hermann Cohen, die ethiek volledig ondergeschikt maakte aan rationele wet, vindt hier zijn vervulling. Want zoals Cohen betoogde dat morele wetten en wettelijke wetten hetzelfde zouden moeten zijn, wordt in een volledig geïntegreerd top-down techno-bestuurssysteem die eenheid bereikt: de ‘wet’ is niet alleen daarbuiten in wetboeken of zelfs in AI-Ethiek [34] die probeert je vraag in de ‘juiste’ richting te sturen – maar eerder binnenin je brein, je wil leidend en beperkend via Neuro-ethiek.

Evenzo zouden verschillende mystieke tradities die spreken over het overwinnen van het zelf en geleid worden door een hogere wil hier een perverse technologische echo kunnen zien – behalve dat de ‘hogere wil’ nu feitelijk algoritmische handhaving is. De recursieve controlestructuren van mystiek – waarbij men zich onderwerpt aan een goddelijke of kosmische orde – worden weerspiegeld in een systeem waarin individuen zich onderwerpen aan de aanwijzingen van AI, misschien uiterst subtiel uitgevoerd via micro-incentives waarvan ze oprecht geloven dat het hun eigen wil is.

Fase 6 wordt niet expliciet beschreven in de geciteerde papers, maar het is impliciet de koers die wordt gevaren. Elke fase vereiste een diepere penetratie van AI in wat voorheen een exclusief menselijk domein was. De geest is de laatste grens. Wanneer zelfs onze uitzonderingen – de momenten waarop een mens momenteel moet ingrijpen – kunnen worden verminderd door de mens aan te passen, dan is de lus volledig gesloten.

De Belofte van ‘Goed Bestuur’

Waarom zouden samenlevingen een dergelijk traject accepteren? Het antwoord ligt in de verleidelijke belofte van perfect bestuur – een belofte die voorstanders van deze technologieën altijd maken. Elke fase van de pijplijn wordt verkocht als een remedie voor ‘gebrekkig’ menselijk bestuur:

  • Digitale tweelingen beloven beter inzicht. Mensen zouden lijden aan beperkte, bevooroordeelde perspectieven, terwijl een alomvattend model een goddelijk overzicht van problemen kan geven. Beslissingen gebaseerd op de voorspellingen van het model zullen worden geclaimd als rationeler en verderziender.
  • Computationele ethiek belooft consistente moraliteit. Menselijke rechters en ambtenaren kunnen corrupt of hypocriet zijn; een AI-ethiekmotor past dezelfde regels op iedereen toe zonder vooroordelen en kan worden gecontroleerd op zijn beslissingscriteria. Behalve wanneer je factoren als intergenerationele rechtvaardigheid meeneemt, dan valt deze belofte plat.
  • AI-gestuurd opstellen belooft efficiëntie en expertise. Menselijke wetgeving is traag, rommelig en vaak van lage kwaliteit. AI kan in seconden duidelijke, logisch coherente concepten produceren, zogenaamd puttend uit de som van menselijke kennis.
  • Programmeerbare infrastructuur belooft zekerheid en naleving. Menselijke handhaving is fragmentarisch – sommigen komen weg met misdaden, anderen worden onterecht gestraft; sommige beleidsregels worden zelfs genegeerd. Handhaving via code zou betekenen dat beleid exact het beoogde effect bereikt, en snel. Het is het einde van ‘misdaad’ in de zin dat als je een regel letterlijk niet kunt overtreden (omdat de omgeving het je niet toestaat), de illegaliteit zogenaamd ophoudt te bestaan. Behalve wanneer je concepten als verschillende normen voor wijktoezicht meeneemt, dan blijkt dit opnieuw een lege belofte.
  • Feedbackloops beloven continue verbetering. Menselijk bestuur is fossiel – wetten blijven hangen, zelfs als ze verouderd zijn, en bureaucratieën verzetten zich tegen verandering. Een zelfcorrigerend AI-systeem zou het beleid aanpassen op het moment dat data een probleem aantonen. Bestuur wordt wendbaar, experimenteel en datagestuurd, altijd lerend en nooit vastzittend in een politieke impasse. Natuurlijk zou dit hypothetisch ook kunnen worden ingezet tegen vijanden van het systeem, zonder enige mogelijkheid tot beroep.

Al deze voordelen pakken echte tekortkomingen in het huidige bestuur aan. Dat is wat de pijplijn zo verraderlijk maakt: op papier is het een upgrade. Wie wil er geen ‘evidence-based policy’? Wie wil er meer vooringenomenheid en corruptie als we minder kunnen hebben? Veel hervormers en rationalisten zouden zich gemakkelijk achter delen van deze visie scharen. Sterker nog, dat doen ze al. ‘AI for Good’-initiatieven streven er bijvoorbeeld expliciet naar om AI te gebruiken om de Duurzame Ontwikkelingsdoelen van de VN te halen [35] – in wezen Fase 3 en Fase 1 om zogenaamd beter beleid op te stellen en resultaten te simuleren om milieudoelstellingen te bereiken, enzovoort. Er is een enorm momentum – en financiering – achter het idee dat meer AI in bestuur betere resultaten voor de samenleving en de planeet zal opleveren. En het maakt niet uit dat westerse samenlevingen in het algemeen de verkeerde kant op lijken te zijn gegaan, zeker sinds de tijd dat wereldwijde surveillance alomtegenwoordig werd [36].

De retoriek benadrukt dat dit niet de verwijdering van mensen is, maar de verwijdering van menselijke fouten. Mensen, met hun cognitieve vooroordelen, beperkte aandacht, egoïstische belangen en vatbaarheid voor desinformatie, worden als ontoereikend beschouwd om de complexiteit van een geglobaliseerde, technologisch geavanceerde wereld aan te kunnen. De aangeboden oplossing is niet om menselijke besluitvorming te verbeteren door onderwijs, deliberatieve democratie, etc., maar om het aan te vullen of te vervangen door iets dat zogenaamd minder feilbaar is – terwijl de verantwoordelijkheid in het proces volledig wordt geëlimineerd. Want wanneer de Digitale Tweeling er weer eens naast zit, zal niemand de schuld op zich nemen – en laat staan het verlies dat jij lijdt als gevolg van desastreuze misrekeningen.

Dit zal natuurlijk niet worden geframed als tirannie of verlies van vrijheid. Het zal worden geframed als bevrijding: bevrijding van gebrek, bevrijding van angst, omdat beslissingen optimaal zullen zijn. Bevrijding van de willekeur van wie er toevallig over je regeerde. Het zal worden afgeschilderd als de vervulling van verlicht bestuur – heerschappij door de beste rationele processen in plaats van door het toeval van geboorte of de populariteitswedstrijd van verkiezingen.

Niemand kan succesvol argumenteren tegen veiligere wegen, financiële systemen die automatisch fraude voorkomen, of internationale verdragen die in minuten in plaats van maanden worden opgesteld. Tegenstand tegen deze pijplijn zal worden afgeschilderd als afkomstig uit twee kampen: de nostalgici die irrationeel vasthouden aan rommelige menselijke vrijheid ten koste van vooruitgang, of de snode corrupte ambtenaren, criminelen en anderen die profiteren van de gaten in het menselijk bestuur. Met andere woorden, je verzetten tegen het systeem zal worden afgeschilderd als ronduit kwaadaardig. Dat narratief is nog niet volledig ingeburgerd, maar DOGE bewijst al een vroege start [37] – en telkens als iemand zegt ‘AI zal helpen corruptie uit te bannen’ of ‘AI zal de politiek uit de beleidsvorming halen’, helpt het de zaak. Misschien niet veel, maar op de lange termijn zal het genoeg zijn.

De belofte van ‘goed (computationeel) bestuur’ is krachtig [38], vooral omdat het gemakkelijk inspeelt op een langdurige desillusie met de politiek, gevoelens die verergerd worden door elk politiek schandaal. Als een ogenschijnlijk neutraal systeem beslissingen belooft die in ieders belang zijn – omdat ze zogenaamd zijn afgeleid van alle beschikbare data en op een identieke manier worden geïnterpreteerd – zullen velen het aantrekkelijk vinden; DOGE is daar een duidelijk bewijs van. Het klinkt als het ideaal van technocratie: laat de experts – of in dit geval, de expertsystemen – het afhandelen.

En op het moment dat je daarmee instemt, hoef je je over dat aspect nooit meer zorgen te maken.

AI for Good

Misschien wel het meest verraderlijke aspect van de techno-bestuurlijke pijplijn is hoe het zich hult in humanitaire retoriek. De ‘AI for Good’-beweging [39] vertegenwoordigt een ideologie die verzet tegen geautomatiseerd bestuur moreel verwerpelijk maakt. Door AI-uitbreiding te framen als een ethische verplichting om vermeende wereldwijde uitdagingen op te lossen, transformeert het initiatief duidelijke technologische overreach in een morele kruistocht – met straffeloosheid. En de reikwijdte is adembenemend, met het UN System Staff College dat nu cursussen aanbiedt over ‘ChatGPT benutten voor effectieve communicatie bij de Verenigde Naties‘ [40], waarmee internationale ambtenaren worden getraind om AI in diplomatiek discours te integreren. De ‘AI for Good Summit’ van de ITU richt zich expliciet op de Duurzame Ontwikkelingsdoelen van de VN [41], met speciale tracks over het gebruik van AI om ‘honger te ontwrichten‘ [42], ‘landbouw te revolutioneren‘ [43] en ‘digitale inclusie’ voor elke persoon op aarde te bereiken. Wat hieruit naar voren komt, is een moreel kader dat AI-penetratie in elke hoek van het menselijk bestaan eist, onder het mom van noodzaak.

Neem het landbouwdomein. De gezamenlijke rapporten van de ITU en FAO onderzoeken ‘een positieve impact op de landbouw‘ [44], en promoten digitale tweelingen van boerderijen, algoritmisch gewasbeheer [45] en voorspellende modellen voor voedseldistributie [46]. De taal is vriendelijk, zelfs humanitair: we moeten de groeiende wereldbevolking voeden, het gebruik van hulpbronnen optimaliseren, hongersnood voorkomen. Maar de infrastructuur die wordt gebouwd, is identiek aan wat Fase 1 beschrijft: uitgebreide digitale modellering van voedselsystemen die vervolgens algoritmisch beheerd kunnen worden. De beslissing van een boer over wat te planten en wanneer te oogsten, wordt onderworpen aan AI-aanbevelingssystemen. Honger ontwrichten met AI‘ betekent de menselijke autonomie in de voedselproductie ontwrichten [47].

De ethische framing maakt deze totale connectiviteit niet alleen nuttig, maar moreel vereist. Hoe kun je je verzetten tegen ‘digitale inclusie’? Hoe kun je argumenteren tegen het voeden van de hongerigen of het optimaliseren van de landbouw? Het werk van de Carnegie Endowment over ‘Gewone Ethiek van het Besturen van AI‘ [49] illustreert deze aanpak: het stelt niet de vraag óf we moeten besturen, maar eerder hoe we dat bestuur ethisch kunnen laten aanvoelen. De focus verschuift van ‘moeten we deze beslissing automatiseren?’ naar ‘hoe automatiseren we het… ethisch?’.

Dit is waar we de bewapening van ethiek het duidelijkst zien. Traditionele ethiek vraagt wat wij zouden moeten doen. Maar ‘AI for Good’-ethiek vraagt wat AI zou moeten doen, waarbij de inzet van AI als een gegeven wordt beschouwd en ethiek als een controlerende entiteit die uitbreiding naar voorheen door mensen gecontroleerde domeinen rechtvaardigt. Maar, natuurlijk, mocht de samenleving zich plotseling onder een andere geclaimde noodtoestand bevinden, dan neigt die ethische doelstelling plotseling een vereiste te worden, en zul je ontslagen worden voor het plegen van een ‘ethische overtreding’ omdat je weigert volledig te voldoen. AI zal echter geen twee keer nadenken.

Het patroon herhaalt zich in elk domein: AI voor de gezondheidszorg, AI voor het onderwijs, AI voor klimaatactie, AI voor bestuur. Elke inzet wordt geframed als een ethisch imperatief dat verzet egoïstisch of achterlijk doet lijken.

De conferenties van Globe Ethics over ‘AI Good Governance‘ [50] vangen deze inversie perfect. De vraag is niet langer of mensen zichzelf moeten besturen, maar hoe AI mensen kan besturen op een manier die als ‘goed’ kan worden gerechtvaardigd. Het ethische discours is gekaapt om te dienen als een validatiemechanisme.

De genialiteit van ‘AI for Good’ is dat het de techno-bestuurlijke pijplijn transformeert van een oplegging naar een uitnodiging. Mensen voelen zich niet gedwongen om geautomatiseerd bestuur te accepteren – ze voelen zich moreel verplicht om het te eisen. Ouders worden aangezet om AI-tutoren te willen voor het onderwijs van hun kinderen. Patiënten worden aangezet om AI-doktoren te willen voor betere gezondheidsresultaten. Door continue mediacampagnes zullen burgers uiteindelijk worden aangezet om AI-beleidsmakers te willen voor effectievere klimaatactie. Het systeem hoeft de menselijke keuze niet te overrulen; het rekruteert de menselijke keuze via morele framing. Dit sjabloon wordt vervolgens voortgezet in andere aspecten van ons leven, waar alles wordt geframed als een morele oproep die je niet kunt weigeren.

Tegen de tijd dat de infrastructuur volledig is geïmplementeerd – wanneer 6G-netwerken elke menselijke activiteit in real-time kunnen monitoren en erop kunnen reageren, wanneer AI-systemen de meeste dagelijkse beslissingen over de toewijzing van middelen en gedragsaanpassing nemen, wanneer menselijke autonomie is weg-geoptimaliseerd – zal deze niet door dwang maar door uitnodiging zijn geïnstalleerd. De laatste fase van de revolutie zal niet aanvoelen als een verovering, maar als een verlossing.

Dit vertegenwoordigt misschien wel de meest geavanceerde vorm van sociale controle ooit bedacht: een systeem dat de eigen morele intuïties van zijn onderdanen rekruteert om hun eigen kooi te bouwen. De tralies zijn gemaakt van goede bedoelingen, de sloten zijn gemaakt van ethische algoritmen, en de bewakers zijn de onderdanen zelf – overtuigd dat ze de mensheid bevrijden in plaats van tot slaaf maken.

En de laatste stukjes van die specifieke puzzel doken op tijdens de vermeende pandemie, waar een dashboard dicteerde of je onder lockdown zou zijn zonder een greintje democratische besluitvorming – een aanpak genormaliseerd (en uitgebreid) tot beleid via het Pandemieverdrag.

De Voltooiing van de Revolutie

Wat we zien is de academische en technologische constructie van de vervanging van de mensheid als de besturende agent van onze beschaving. In tegenstelling tot een staatsgreep of een opstand, draagt deze revolutie de mantel van objectiviteit en vooruitgang. Elk stuk komt met een peer-reviewed stempel, een subsidie van een gerenommeerde stichting, misschien een proefproject in een progressieve stad, en bijna geen publieke ophef.

De componenten schuiven op hun plaats:

  • Kennis: Het algemene intellect van de samenleving (om de term van Marx te gebruiken) wordt vastgelegd in de digitale tweelingen en AI-modellen. Zodra ze alle relevante kennis omvatten, voegt menselijk oordeel weinig waarde toe en wordt het weg-geoptimaliseerd.
  • Ethiek: De hoogste menselijke waarden en normen worden gecodificeerd in machines. Zodra de machines beweren onze moraliteit beter te begrijpen dan wijzelf (door filosofie, wet, culturele normen, jurisprudentie te aggregeren), waarom zou je dan een wispelturig menselijk geweten vertrouwen?
  • Creatie: De handeling van het opstellen van nieuwe regels – aantoonbaar een soeverein menselijk voorrecht – wordt overgedragen aan LLM’s. Ze kunnen opties produceren waar we zelf nooit aan gedacht zouden hebben, dus laten we ze dat doen.
  • Executie: Handhaving is een steeds meer geautomatiseerde aangelegenheid. Hobbes’ spreekwoordelijke ‘hamer’ en ‘zwaard’ van bestuur worden beide gemechaniseerd.
  • Optimalisatie: Het systeem zorgt voor zijn eigen verbetering, en overtreft uiteindelijk de menselijke wetgevende cyclus of leerproces. In feite zou het binnenkort onmogelijk kunnen zijn voor zelfs de wijste persoon om de wet te begrijpen, nu AI deze snel verandert.

We praten vaak over AI als iets dat menselijke capaciteiten versterkt. Maar wat deze pijplijn laat zien, is een AI-systeem dat menselijke capaciteiten absorbeert. Het helpt niet alleen mensen te besturen; het wordt langzaam de bestuurder. Nadat ze – met succes, maar vaak zonder het zelf te beseffen – de AI hebben getraind, passen mensen zich vervolgens aan om het systeem te dienen: aanvankelijk door het te begeleiden met onderzoek en input, zoals deze academici doen, dan door het te monitoren, en uiteindelijk misschien door ermee te fuseren voor zover dat nodig is om bij te blijven – of het nu Ethiek of Neuro-ethiek is.

Kant droomde van een samenleving die puur door rede wordt bestuurd [51] – een koninkrijk der doelen waar elk rationeel wezen autonoom de morele wet volgt. Hegel zag de staat als de mars van God op aarde, de belichaming van de rationele geest [52]. Marx stelde zich het einde van de staat voor wanneer sociale conflicten oplossen, maar in de tussentijd een wetenschappelijke administratie die Bogdanov conceptueel ontwikkelde. In de 20e eeuw speelden vroege cybernetici met ideeën over bestuur door berekening. Elk werd beperkt door de technologie van hun tijd, maar die bottleneck is nu verdwenen.

De academische pijplijn elimineert methodisch elke factor die politiek politiek maakte: de strijd van waarden wordt opgelost door computationele ethiek, de onzekerheid van uitkomsten wordt beperkt door simulaties, de overtuigingskracht en retoriek worden uitbesteed aan het opstellen, de handhavingsdilemma’s worden afgehandeld door code, de feedbackprotesten en eisen worden tot zwijgen gebracht door algoritmische aanpassing. Wat overblijft, is in wezen administratie. De rol van mensen wordt gereduceerd tot die van een onderhoudsploeg voor Ruimteschip Aarde.

Misschien is het meest angstaanjagende deel hoe normaal dit zal voelen als het gebeurt. Er zal geen dag zijn waarop mensen wakker worden en robots zichtbaar de dienst uitmaken. In plaats daarvan zal elke stap hebben aangevoeld als een verbetering, een gemak, een noodzaak zelfs (vooral gezien geclaimde crises zoals klimaatverandering of pandemieën). Tegen de tijd dat mensen beseffen wat er is gebeurd, zal het terugdraaien bijna onmogelijk zijn. De expertise om op de oude manier te besturen zou wel eens verdwenen kunnen zijn – wie kan handmatig alle data verwerken of de complexiteiten overzien die het systeem aankan? Bovendien zal de infrastructuur zo ingebed zijn dat je eruit stappen, is als proberen te leven zonder elektriciteit vandaag de dag. Hele generaties kunnen opgroeien met de aanname dat dit is hoe bestuur werkt – algoritmisch en automatisch – en het net zo natuurlijk vinden als wij democratie of markten vinden.

Samengevat – de revolutie komt in whitepapers en conferentieverslagen, niet in manifesten of manifest destiny. Het wordt gecompileerd in software, uitgevoerd door bureaucratieën, en gerechtvaardigd door spreadsheets die verbeterde resultaten claimen. Maar vergis je niet: de revolutie gaat uiteindelijk over autoriteit. We bouwen een systeem waar, voorbij een bepaald punt, de gewone man op straat geen enkele invloed meer zal hebben op welke beslissing dan ook.

Wat betreft of dit onvermijdelijk is… misschien is de keuze in feite al gemaakt – niet door democratische stemmingen of collectieve reflectie, maar door onderzoeksagenda’s en de prioriteiten van stichtingen. Maar goed, de dikke dame heeft nog niet gezongen.

Misschien het meest schokkende voor degenen onder ons die de jaren ’80 en ’90 hebben meegemaakt… de machine heeft niet eens T-800’s nodig – omdat al deze stappen doorgaans werden gezet in de vorm van onderzoekspapers, gepubliceerd terwijl de mainstream media ze overstemden met irrelevante ruis.

Vindt u deze analyse waardevol

Dit soort diepgaand onderzoek kost tijd en energie. Als u de content waardeert en in de positie bent om bij te dragen, overweeg dan alstublieft een (betaald) abonnement. Uw steun maakt het mogelijk om dit werk voort te zetten en onafhankelijk te blijven.

Previous Article

Netwerkanalyse: mRNA-technologie, gain-of-function en pandemiebeleid in Nederland

Next Article

De Complete Architectuur: Hoe Wetenschappelijk Socialisme de Wereldwijde Besturing Overnam

Write a Comment

Leave a Comment

Your email address will not be published. Required fields are marked *

Subscribe to our Newsletter

Subscribe to our email newsletter to get the latest posts delivered right to your email.
Pure inspiration, zero spam ✨