Waarom regels en training niet genoeg zijn - De bestuurlijke uitdaging
Serie: Jouw parochie, jouw AI - Inzicht in Village AI voor gemeenschappen (Artikel 3 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0
Pastorale brief
Voordat we de filosofie van het bestuur bespreken, beginnen we met een verhaal over een brief.
Een rector vraagt een AI-systeem om te helpen bij het opstellen van een brief aan een rouwende familie. Ze is specifiek: ze wil de taal van opstandingshoop - de troost van het geloof dat deze familie werkelijk aanhangt. Ze typt haar verzoek zorgvuldig in en wacht.
De AI produceert een prachtig geschreven brief. Hij is warm, professioneel en meelevend. Er wordt gesproken over "de genezingsreis", "het vinden van afsluiting", "hun nagedachtenis eren door je beste leven te leiden" en "de erfenis die ze achterlaten" Het leest goed. Het klinkt zorgzaam. En het is helemaal verkeerd.
De familie heeft geen afsluiting nodig. Ze hebben de gemeenschap van heiligen nodig. Ze hebben geen erfenis nodig. Ze moeten horen dat de doden zijn opgewekt en dat het afscheid tijdelijk is. De rector vroeg om hoop op wederopstanding en de AI gaf haar therapeutische zelfhulp - omdat haar trainingsgegevens duizend rouwgidsen van counselingwebsites bevatten voor elke website die spreekt over de wederopstanding van de doden.
De AI weigerde de instructie van de rector niet. Het zei niet "Ik ken uw traditie niet." Hij verving eenvoudig waar ze om vroeg door wat statistisch gezien vaker voorkwam in zijn trainingsgegevens. De vervanging was stil. Als de rector moe was, of gehaast, of minder oplettend dan gewoonlijk, zou ze het misschien niet gemerkt hebben. De brief zou zijn uitgegaan en de familie zou troost hebben gekregen van de verkeerde traditie - professioneel geformuleerd, oprecht bedoeld en subtiel trouweloos.
Je telefoon corrigeert woorden. Je ziet de rode onderstreping en je corrigeert het. AI corrigeert waarden. En er is geen onderstreping.
Wanneer patronen waarden overschrijven
De pastorale brief staat niet op zichzelf. Hetzelfde mechanisme werkt in elk AI-gesprek.
Als een parochiaan een AI-systeem om advies vraagt over een moeilijke gezinssituatie, grijpt het systeem standaard naar de taal van individuele therapie - assertiviteitstraining, grenzen stellen, zelfzorg - omdat dat de trainingsgegevens domineert. Het grijpt niet naar de taal van geduld, wederzijdse verdraagzaamheid en de lange adem die je krijgt als je weet dat je de komende dertig jaar naast deze persoon in de kerk zult zitten.
Als een kerkvoogd de AI vraagt om te helpen met een gevoelige mededeling, grijpt de AI terug op bedrijfscommunicatietaal - stakeholdermanagement, kaders voor berichtgeving, gespreksonderwerpen - omdat het aantal zakelijke correspondentie in de trainingsgegevens veel groter is dan het aantal kerkelijke correspondentie.
De AI staat niet vijandig tegenover jouw traditie. Hij kent je traditie gewoon niet. Hij weet wat statistisch gezien gebruikelijk is en wat statistisch gezien gebruikelijk is, is niet wat het belangrijkst is voor jouw gemeenschap.
Dit is het bestuursprobleem. Geen kwaadwillendheid. Niet incompetentie. Structurele vooringenomenheid, die stilletjes opereert.
Waarom meer regels het niet oplossen
Het instinct van de meeste organisaties, wanneer ze geconfronteerd worden met AI-risico's, is om beleidsregels op te stellen. Beleid voor aanvaardbaar gebruik. AI-ethische richtlijnen. Servicevoorwaarden. Verantwoorde AI-raamwerken.
Deze documenten zijn niet nutteloos, maar ze hebben een fundamentele beperking: ze vertrouwen erop dat het AI-systeem ze volgt.
Een AI-systeem leest je beleidsdocument niet en besluit dan om zich eraan te houden. Het genereert antwoorden op basis van statistische patronen in zijn trainingsgegevens. Als die patronen in strijd zijn met uw beleid, winnen de patronen - niet omdat de AI rebels is, maar omdat het geen beleid begrijpt. Hij begrijpt patronen.
Je kunt een model verfijnen - de training aanpassen om bepaald gedrag te benadrukken. Dit helpt, maar lost het onderliggende probleem niet op. Fine-tuning voegt nieuwe patronen toe bovenop de bestaande. Onder druk, ongewone omstandigheden of nieuwe vragen komen de oude patronen weer bovendrijven. De technische term is "catastrofaal vergeten", maar de versie in gewone taal is eenvoudiger: training slijt.
Een beleid schrijven dat zegt "Onze AI zal de waarden van onze gemeenschap respecteren" is als een beleid schrijven dat zegt "Onze rivier zal niet overstromen" De rivier leest geen beleid. Als je overstromingen wilt voorkomen, moet je dijken bouwen - structurele ingrepen die werken ongeacht wat de rivier van plan is.
AI-governance vereist dezelfde aanpak. Geen regels die de AI geacht wordt te volgen, maar structuren die onafhankelijk van de AI opereren en zijn gedrag van buitenaf controleren.
Wat de wijsheidstradities ons vertellen
Het inzicht dat sommige beslissingen niet kunnen worden gereduceerd tot regels is niet nieuw. Het is oeroud.
De filosoof Ludwig Wittgenstein besteedde zijn hele carrière aan het verkennen van de grens tussen wat precies kan worden gezegd en wat voorbij de precieze verklaring ligt. Zijn conclusie - dat "waarover men niet kan spreken, daarover moet men zwijgen" - is rechtstreeks relevant voor AI-governance. Sommige vragen kunnen gesystematiseerd worden: "Hoe laat is de dienst op zondag?" heeft een duidelijk antwoord dat een AI kan opzoeken. Andere vragen kunnen dat niet: "Hoe moet ik mijn buurman benaderen over de heg?" gaat over oordelen, context, relaties en waarden die zich verzetten tegen systematische behandeling.
De grens tussen wat aan een machine kan worden gedelegeerd en wat bij de mens moet blijven, is de basis van goed AI-bestuur. De fout is niet om AI te gebruiken voor de eerste soort vraag. De fout is om AI toe te staan de tweede soort vragen te beantwoorden zonder menselijk toezicht.
Isaiah Berlin, de politieke filosoof, stelde dat sommige menselijke waarden echt onverenigbaar zijn - vrijheid en gelijkheid, traditie en vooruitgang, individueel geweten en gemeenschappelijke harmonie. Er bestaat geen formule die deze spanningen oplost. Ze vereisen een voortdurend menselijk oordeel, onderhandeling en het soort praktische wijsheid dat gemeenschappen in de loop van generaties ontwikkelen.
AI-systemen zijn ontworpen om te optimaliseren. Ze zoeken naar het beste antwoord. Maar wanneer waarden echt botsen, is er geen beste antwoord - er is alleen het antwoord dat deze gemeenschap, op dit moment, met deze mensen, als het minst slechte beoordeelt. Dat oordeel is inherent menselijk en elk AI-bestuurskader dat doet alsof het anders is, bestuurt niet - het geeft zich over.
De Anglicaanse traditie heeft haar eigen versie van dit inzicht. De via media - de middenweg - is geen compromis tussen uitersten. Het is de erkenning dat trouw leven vereist dat je spanningen vasthoudt in plaats van ze op te lossen. De Schrift, de traditie en de rede hebben elk gezag en geen van beide kan worden gereduceerd tot een formule. Een parochie die dit soort onderscheidingsvermogen al eeuwenlang toepast, begrijpt tot in haar botten waarom AI niet vertrouwd kan worden met beslissingen over waarden.
Hoe het dorp AI structureel bestuurt
Village vertrouwt er niet op de AI te vertellen zich te gedragen. Het bouwt bestuur in de architectuur in - structuren die onafhankelijk van de AI werken en niet door de AI kunnen worden overruled.
De grensbewaker verhindert dat de AI beslissingen neemt over waarden. Als een vraag gaat over privacy-afwegingen, ethische oordelen of culturele context, stopt het systeem en wordt de vraag doorgestuurd naar een mens - je moderator, je rector, je sacristie. De AI kan deze grens niet opheffen, omdat de grens buiten de controle van de AI valt.
Het instructiesysteem slaat de expliciete instructies van je gemeenschap op in een apart systeem dat de AI niet kan wijzigen. Als de AI een antwoord genereert, wordt dit gecontroleerd aan de hand van deze opgeslagen instructies. Als het antwoord in strijd is met een instructie, heeft de instructie voorrang - standaard, ongeacht wat de trainingspatronen van de AI suggereren.
De kruisverwijzing validator controleert de voorgestelde acties van de AI aan de hand van de werkelijke gegevens van je gemeenschap. Het vraagt de AI niet of zijn antwoord correct is - dat zou het systeem vragen om zichzelf te verifiëren. Het gebruikt wiskundige metingen, die op een fundamenteel andere manier werken dan de AI, om te bepalen of het antwoord is gebaseerd op de werkelijke inhoud van uw gemeenschap.
De contextdrukmonitor let op verslechterde werkomstandigheden - situaties waarin de AI onder druk staat, complexe verzoeken verwerkt of op nieuwe vragen stuit. Wanneer het deze omstandigheden detecteert, verhoogt het de intensiteit van de verificatie. Hoe moeilijker de vraag, hoe nauwkeuriger het antwoord.
Dit zijn geen beleidsregels. Het zijn structuren. Ze werken of de AI het ermee eens is of niet, net zoals een waterkering werkt of de rivier het ermee eens is of niet.
Het verschil tussen aspiratie en architectuur
Veel organisaties publiceren AI-ethiekverklaringen. Village vertrouwt niet op ethische verklaringen. Het vertrouwt op architecturale beperkingen die governance structureel afdwingen.
Het onderscheid is belangrijk omdat aspiratie is wat je hoopt dat er zal gebeuren. Architectuur is wat er werkelijk gebeurt. Je parochie vertrouwt niet op de hoop dat de penningmeester op de juiste manier met het geld omgaat - er zijn twee ondertekenaars nodig voor elke cheque. Dat is architecturaal bestuur. Hetzelfde principe geldt voor AI.
Het Tractatus raamwerk - Transparant en Open
De besturingsarchitectuur achter Village AI wordt het Tractatus raamwerk genoemd. Het is de moeite waard om er drie dingen over te weten.
Het is open. Het hele raamwerk is gepubliceerd onder een Apache 2.0 open-source licentie. Iedereen kan de code lezen, de regels inspecteren en controleren of de governance doet wat het beweert te doen. Dit is het tegenovergestelde van Big Tech AI-governance, waar de regels gepatenteerd zijn en de redenering verborgen blijft. Als Google of OpenAI je vertellen dat hun AI "in lijn is met menselijke waarden", kun je dat op geen enkele manier controleren. Met Tractatus kun je elke regel lezen.
Het is transparant. Elke bestuursbeslissing wordt bijgehouden. Als de grensbewaker de AI blokkeert bij het nemen van een waardenbeslissing, wordt die gebeurtenis vastgelegd. Als de kruisverwijzing-validator een discrepantie opmerkt, wordt dat vastgelegd. Je beheerders kunnen precies zien wat het beheersysteem deed en waarom. Er is geen verborgen laag waar beslissingen worden genomen zonder verantwoording af te leggen.
Het kan worden aangepast. Het raamwerk is geen starre set regels die van buitenaf wordt opgelegd. Gemeenschappen kunnen het bestuur zo vormgeven dat het hun eigen prioriteiten weerspiegelt. Een bisschoppelijke parochie en een natuurbeschermingsgroep hebben verschillende waarden, verschillende gevoeligheden, verschillende grenzen. Het Tractatus raamwerk komt hieraan tegemoet - niet door gemeenschappen het bestuur te laten verzwakken, maar door hen te laten definiëren wat het bestuur beschermt. De grondwet van je gemeenschap, het morele landschap van je gemeenschap, de grenzen van je gemeenschap - structureel afgedwongen, niet alleen gedocumenteerd.
Het volledige raamwerk, inclusief het onderzoek erachter, is beschikbaar op agenticgovernance.digital. Je hoeft het niet te lezen om Village te gebruiken - het bestuur werkt of je het nu inspecteert of niet. Maar als je precies wilt begrijpen hoe je AI wordt bestuurd, dan staat de deur open.
In het volgende artikel kijken we naar wat Village AI vandaag de dag in de praktijk doet - waar het je parochie mee kan helpen, hoe bias wordt aangepakt via het vocabulairesysteem en wat nog een werk in uitvoering is.
Dit is artikel 3 van 5 in de serie "Uw parochie, uw AI". Ga voor de volledige bestuursarchitectuur naar Village AI on Agentic Governance.
Vorige: Big Tech AI vs. AI in uw parochie - Waarom het verschil van belang is Volgende: Wat draait er eigenlijk in Village Today