⚖ Leadership Edition

Governance Challenge

Nederlands

Waarom regels en training niet genoeg zijn - De bestuurlijke uitdaging


Serie: AI-Governance voor leiders van gemeenschappen - Inzicht in Village AI voor bestuurders, raadsleden en bestuursleden (Artikel 3 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0


De planningsmededeling

Voordat we de besturingsfilosofie bespreken, beginnen we met een praktisch voorbeeld.

Een gemeenteambtenaar vraagt een AI-systeem om te helpen bij het opstellen van een brief aan bewoners over een voorgestelde ontwikkeling naast een beschermd gebied. Ze is specifiek: ze wil afgewogen taal die de zorgen van de bewoners erkent, het planningskader uitlegt en duidelijk maakt dat de raad verplicht is om concurrerende belangen transparant af te wegen. Ze typt haar verzoek zorgvuldig en wacht.

De AI produceert een goed gestructureerde brief. Hij is vloeiend, professioneel en zorgvuldig geformuleerd. Er wordt gesproken over "het managen van de verwachtingen van belanghebbenden", "het afstemmen op strategische prioriteiten", "het benutten van mogelijkheden voor maatschappelijke betrokkenheid" en "het positioneren van het ontwikkelingsverhaal" Het leest competent. Het klinkt professioneel. En het is helemaal verkeerd.

De bewoners willen niet dat hun verwachtingen worden gemanaged. Ze moeten begrijpen wat hun raad heeft besloten en waarom. Ze hebben geen verhaal nodig. Ze hebben een transparant verslag nodig van de planningsoverwegingen, de ontvangen reacties en de redenering achter het besluit. De ambtenaar vroeg om burgerverantwoordelijkheid en de AI gaf haar corporate stakeholder management - omdat haar trainingsgegevens veel meer zakelijke communicatie bevatten dan burgercorrespondentie.

De AI weigerde de instructie van de ambtenaar niet. Hij zei niet "Ik begrijp publieke verantwoording niet" De AI verving gewoon waar ze om vroeg door wat statistisch gezien vaker voorkwam in haar trainingsgegevens. De vervanging was stil. Als de agent onder tijdsdruk stond, of minder ervaren was, of meer op de AI vertrouwde dan zou moeten, zou ze het misschien niet gemerkt hebben. De brief zou zijn verstuurd en de bewoners zouden een mededeling hebben ontvangen die hen behandelde als belanghebbenden die beheerd moesten worden in plaats van kiezers die bediend moesten worden.

Je telefoon corrigeert woorden. Je ziet de rode onderstreping en je corrigeert het. AI corrigeert automatisch waarden. En er is geen onderstreping.

Wanneer patronen waarden overschrijven

De planningscommunicatie staat niet op zichzelf. Hetzelfde mechanisme werkt in elke AI-interactie.

Wanneer een kiezer een AI-systeem om informatie vraagt over een lastige planningskwestie, grijpt het systeem terug op de taal van individuele consumentenrechten - klachtenescalatie, rechtsmiddelen, conflictbemiddeling - omdat dit de taal is die de trainingsgegevens domineert. Het grijpt niet naar de taal van het gemeenschapsbelang, collectieve beraadslaging en de lange adem die voortkomt uit het inzicht dat deze beslissing een buurt voor tientallen jaren zal vormgeven.

Als de secretaris van een bestuur de AI vraagt om te helpen bij het opstellen van de notulen, wordt er standaard gebruik gemaakt van zakelijke bestuurstaal - "het bestuur constateerde", "er werd besloten", "actiepunten werden toegewezen" - omdat er in de trainingsdata veel meer zakelijke notulen zijn dan notulen van gemeenschapsbestuur. De nuance van het overleg in de gemeenschap - waar meningsverschillen worden vastgelegd, waar een beslissing met tegenzin is genomen, waar de redenering net zo belangrijk is als de resolutie - wordt afgevlakt tot bedrijfsefficiëntie.

De AI staat niet vijandig tegenover burgerlijke waarden. Hij kent de burgerlijke waarden gewoon niet grondig. Het weet wat statistisch gebruikelijk is, en wat statistisch gebruikelijk is, is niet wat het meest geschikt is voor organisaties met een zorgplicht jegens hun gemeenschap.

Dit is het bestuursprobleem. Geen kwaadwillendheid. Niet incompetentie. Structurele vooringenomenheid, die stilletjes opereert.

Waarom meer regels het niet oplossen

Het instinct van de meeste organisaties, wanneer ze geconfronteerd worden met AI-risico's, is om beleidsregels op te stellen. Beleid voor aanvaardbaar gebruik. Richtlijnen voor AI-ethiek. Raamwerken voor verantwoorde AI. Taakomschrijvingen voor AI-toezichtcommissies.

Deze documenten zijn niet zonder waarde, maar ze hebben een fundamentele beperking: ze vertrouwen erop dat het AI-systeem ze volgt.

Een AI-systeem leest uw beleid voor aanvaardbaar gebruik niet en besluit zich eraan te houden. Het genereert antwoorden op basis van statistische patronen in zijn trainingsgegevens. Als die patronen in strijd zijn met uw beleid, winnen de patronen - niet omdat de AI opstandig is, maar omdat het geen beleid verwerkt. Hij verwerkt patronen.

Je kunt een model verfijnen - de training aanpassen om bepaald gedrag te benadrukken. Dit helpt, maar lost het onderliggende probleem niet op. Fine-tuning voegt nieuwe patronen toe bovenop de bestaande. Onder druk, ongewone omstandigheden of nieuwe vragen, komen de oude patronen weer bovendrijven. De technische term is "catastrofaal vergeten", maar de versie in gewone taal is eenvoudiger: training slijt.

Een beleid schrijven dat zegt "Onze AI zal de waarden van onze gemeenschap respecteren" is als een beleid schrijven dat zegt "Onze rivier zal niet overstromen" De rivier leest geen beleid. Als je overstromingen wilt voorkomen, moet je dijken bouwen - structurele ingrepen die werken ongeacht wat de rivier doet.

AI-governance vereist dezelfde aanpak. Geen regels die de AI geacht wordt te volgen, maar structuren die onafhankelijk van de AI opereren en zijn gedrag van buitenaf controleren.

De AI-wet van de EU erkent dit principe. De wet vereist niet alleen dat AI-systemen "ethisch" zijn, maar ook technische documentatie, conformiteitsbeoordelingen, menselijke toezichtmechanismen en monitoring na het op de markt brengen. De opstellers van de wet begrepen dat aspiratie zonder architectuur onvoldoende is. De vraag voor bestuursorganen is of hun eigen AI-implementatie hetzelfde begrip weerspiegelt.

Wat de bestuurstheorie ons vertelt

Het inzicht dat sommige beslissingen niet kunnen worden gereduceerd tot regels is niet nieuw. Het is fundamenteel voor de bestuurstheorie.

De filosoof Ludwig Wittgenstein heeft zijn carrière besteed aan het onderzoeken van de grens tussen wat precies gezegd kan worden en wat er voorbij ligt. Zijn conclusie - dat "waarover men niet kan spreken, daarover moet men zwijgen" - is rechtstreeks relevant voor AI-governance. Sommige vragen kunnen gesystematiseerd worden: "Wanneer is de volgende raadsvergadering?" heeft een duidelijk antwoord dat een AI kan opzoeken. Andere vragen kunnen dat niet: "Hoe moeten we deze beslissing communiceren naar de betrokken bewoners?" gaat over oordelen, context, relaties en waarden die zich verzetten tegen systematische behandeling.

De grens tussen wat aan een machine kan worden gedelegeerd en wat bij mensen moet blijven, is de basis van goed AI-bestuur. De fout zit hem niet in het gebruik van AI voor de eerste soort vraag. De fout is om AI toe te staan de tweede soort vragen te beantwoorden zonder menselijk toezicht.

Isaiah Berlin, de politieke filosoof, stelde dat sommige menselijke waarden echt onverenigbaar zijn - vrijheid en gelijkheid, traditie en vooruitgang, individuele rechten en collectief welzijn. Er bestaat geen formule die deze spanningen oplost. Ze vereisen een voortdurend menselijk oordeel, onderhandeling en het soort praktische wijsheid dat bestuursorganen ontwikkelen na jaren van dienstbaarheid aan hun gemeenschap.

AI-systemen zijn ontworpen om te optimaliseren. Ze zoeken naar het beste antwoord. Maar wanneer waarden werkelijk tegenstrijdig zijn, is er geen beste antwoord - er is alleen het antwoord dat deze gemeenschap, op dit moment, met deze omstandigheden, als het meest gepast beoordeelt. Dat oordeel is inherent menselijk en elk AI-besturingsraamwerk dat van het tegendeel uitgaat, bestuurt niet - het is afstand doen.

Het werk van Elinor Ostrom over het besturen van gemeengoed is bijzonder leerzaam. Ostrom toonde aan dat gemeenschappen met succes gedeelde hulpbronnen kunnen besturen zonder privatisering of centrale controle - maar alleen als de bestuursstructuren overeenkomen met de complexiteit van de hulpbron die wordt bestuurd. AI is een gedeelde hulpbron binnen elke organisatie die het toepast. De vraag is of de bestuursstructuren passen bij de complexiteit van het hulpmiddel.

Hoe het dorp AI structureel bestuurt

Village vertrouwt er niet op dat de AI zich moet gedragen. Het bouwt bestuur in de architectuur in - structuren die onafhankelijk van de AI werken en niet door de AI kunnen worden overruled.

De grensbewaker voorkomt dat de AI beslissingen neemt over waarden. Als een vraag gaat over privacy-afwegingen, ethische oordelen of culturele context, stopt het systeem en wordt de vraag doorgestuurd naar een mens - je moderator, je voorzitter, je bestuur. De AI kan deze grens niet negeren, omdat de grens buiten de controle van de AI valt.

Het instructiesysteem slaat de expliciete instructies van je organisatie op in een apart systeem dat de AI niet kan wijzigen. Als de AI een antwoord genereert, wordt dit gecontroleerd aan de hand van deze opgeslagen instructies. Als de respons in strijd is met een instructie, heeft de instructie voorrang - standaard, ongeacht wat de trainingspatronen van de AI suggereren.

De kruisverwijzing validator controleert de voorgestelde outputs van de AI aan de hand van de werkelijke records van uw organisatie. Het vraagt de AI niet of zijn antwoord correct is - dat zou het systeem vragen om zichzelf te verifiëren. Het gebruikt wiskundige metingen, die op een fundamenteel andere manier werken dan de AI, om te bepalen of het antwoord is gebaseerd op de werkelijke inhoud van uw gemeenschap.

De contextdrukmonitor let op verslechterde werkomstandigheden - situaties waarin de AI onder druk staat, complexe verzoeken verwerkt of op nieuwe vragen stuit. Wanneer het deze omstandigheden detecteert, verhoogt het de intensiteit van de verificatie. Hoe moeilijker de vraag, hoe nauwkeuriger het antwoord.

Dit zijn geen beleidsregels. Het zijn structuren. Ze werken of de patronen van de AI er nu wel of niet mee overeenstemmen, net zoals een waterkering werkt of de rivier nu wel of niet meewerkt.

Het verschil tussen aspiratie en architectuur

Veel organisaties publiceren AI-ethiekverklaringen. Village vertrouwt niet op ethische verklaringen. Het vertrouwt op architecturale beperkingen die governance structureel afdwingen.

Het onderscheid is belangrijk omdat aspiratie is wat je hoopt dat er zal gebeuren. Architectuur is wat er werkelijk gebeurt. Je vertrouwen is niet gebaseerd op de hoop dat de penningmeester op de juiste manier met het geld omgaat - het vereist dubbele ondertekenaars en een onafhankelijke audit. Dat is architecturaal bestuur. Hetzelfde principe geldt voor AI.

Voor bestuursorganen komt dit onderscheid rechtstreeks overeen met de wettelijke vereisten. De EU AI Act accepteert niet dat een aanbieder goede bedoelingen heeft - het vereist aantoonbare technische waarborgen, logging en menselijke toezichtmechanismen. Een organisatie die architecturaal bestuur van haar AI kan aantonen, bevindt zich in een wezenlijk andere nalevingspositie dan een organisatie die alleen kan wijzen op een beleidsdocument.

Het Tractatus raamwerk - Transparant en open

De governancearchitectuur achter Village AI wordt het Tractatus framework genoemd. Het is de moeite waard om er drie dingen over te weten.

Het is open. Het hele raamwerk is gepubliceerd onder een Apache 2.0 open-source licentie. Iedereen kan de code lezen, de regels inspecteren en controleren of de governance doet wat het beweert te doen. Dit is het tegenovergestelde van Big Tech AI-governance, waar de regels gepatenteerd zijn en de redenering niet openbaar wordt gemaakt. Als een grote AI-leverancier je vertelt dat zijn systeem "is afgestemd op menselijke waarden", kun je die bewering op geen enkele manier verifiëren. Met Tractatus kun je elke regel lezen.

Het is transparant. Elke bestuursbeslissing wordt bijgehouden. Als de grensbewaker voorkomt dat de AI een waardenbeslissing neemt, wordt die gebeurtenis vastgelegd. Als de kruisverwijzingsvalidator een discrepantie vaststelt, wordt dat geregistreerd. Je moderators en beheerders kunnen precies zien wat het governance systeem heeft gedaan en waarom. Er is geen verborgen laag waar beslissingen worden genomen zonder verantwoording af te leggen. Voor organisaties die onderhevig zijn aan verplichtingen op het gebied van vrijheid van informatie of openbare verantwoording, is deze controleerbaarheid van direct belang.

Het kan worden aangepast. Het raamwerk is geen starre set regels die van buitenaf wordt opgelegd. Organisaties kunnen de governance aanpassen aan hun eigen prioriteiten. Een lokale raad en een gemeenschapstrust hebben verschillende verplichtingen, verschillende gevoeligheden, verschillende grenzen. Het Tractatus raamwerk komt hieraan tegemoet - niet door organisaties de governance te laten verzwakken, maar door hen te laten definiëren wat de governance beschermt. De grondwet van uw organisatie, uw waardenkader, uw operationele grenzen - structureel afgedwongen, niet alleen gedocumenteerd.

Het volledige raamwerk, inclusief het onderzoek erachter, is beschikbaar op agenticgovernance.digital. Je hoeft het niet te lezen om Village te gebruiken - het bestuur werkt of je het nu inspecteert of niet. Maar als je precies wilt begrijpen hoe je AI wordt bestuurd, of als je naleving moet aantonen aan een regelgevende instantie, dan staat de deur open.

In het volgende artikel kijken we naar wat Village AI vandaag de dag in de praktijk doet - waar het je organisatie mee kan helpen, hoe vooroordelen worden aangepakt via het vocabulairesysteem en wat er nog in ontwikkeling is.


Dit is artikel 3 van 5 in de serie "AI Governance voor leiders van gemeenschappen". Ga voor de volledige governance-architectuur naar Village AI on Agentic Governance.

Vorige: Big Tech AI vs. door de gemeenschap bestuurde AI - Waarom het verschil ertoe doet Volgende: Wat draait er vandaag in het dorp

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.