🌳 Family Edition

Governance Challenge

Nederlands

Waarom regels en training niet genoeg zijn - De bestuurlijke uitdaging


Serie: Jouw gezin, jouw AI - Inzicht in Village AI voor gezinnen (Artikel 3 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0


The Memorial Tribute

Voordat we de bestuursfilosofie bespreken, beginnen we met een verhaal over een eerbetoon.

Een oudere familielid vraagt een AI-systeem om te helpen bij het schrijven van een eerbetoon voor de herdenking van haar vader. Ze is specifiek: ze wil dat het weergeeft wie hij werkelijk was - de stille man die ieders fiets repareerde, die vals zong in de auto, die een tuin had die de halve straat van eten voorzag. Ze typt haar verzoek zorgvuldig in en wacht.

De AI produceert een prachtig geschreven eerbetoon. Het is warm, professioneel en meelevend. Het gaat over "het vieren van een goed geleefd leven", "het vinden van afsluiting", "het eren van zijn nalatenschap" en "de herinneringen die je zullen steunen" Het leest goed. Het klinkt zorgzaam. En het is helemaal verkeerd.

De familie heeft geen algemene troost nodig. Ze hebben hun vader nodig - de echte man, geen sjabloon. Ze hebben geen behoefte aan "een goed geleefd leven vieren" in woorden die op iedereen van toepassing kunnen zijn. Ze willen horen over de fietspomp en het vals zingen en de tomaten die hij elke zomer zonder mankeren kweekte. De oudere vroeg om iets persoonlijks en de AI gaf haar iets algemeens - omdat de trainingsgegevens duizend sjabloonuitingen bevatten voor elke die een echt persoon beschrijft.

De AI weigerde haar verzoek niet. Hij zei niet "Ik ken je vader niet" Hij verving gewoon waar ze om vroeg door wat statistisch gezien vaker voorkwam in zijn trainingsgegevens. De vervanging was stil. Als ze moe was, of gehaast, of minder oplettend dan normaal, zou ze het misschien niet gemerkt hebben. Het eerbetoon zou op de herdenking zijn voorgelezen en de familie zou woorden over hun vader hebben gehoord die over iedereen hadden kunnen gaan - professioneel geformuleerd, oprecht bedoeld en alles ontbrekend wat ertoe deed.

Je telefoon corrigeert woorden. Je ziet de rode onderstreping en je corrigeert het. AI corrigeert waarden. En er is geen onderstreping.

Wanneer patronen voorrang krijgen op wat belangrijk is

Het gedenkmonument staat niet op zichzelf. Hetzelfde mechanisme werkt in elk AI-gesprek.

Wanneer een familielid een AI-systeem om advies vraagt over de zorg voor een ouder wordende ouder, grijpt het systeem standaard naar de taal van professionele zorgdiensten - behoeftenevaluaties, zorgplannen, respijtopties - omdat dit de taal is die de trainingsgegevens domineert. Het grijpt niet naar de taal van familietaken, van het om de beurt nemen, van de stille verstandhouding tussen broers en zussen die weten dat ze nog tientallen jaren met Kerstmis bij elkaar zullen zitten.

Wanneer iemand de AI vraagt om te helpen bij het opstellen van een bericht over een gevoelige familiekwestie - een meningsverschil over een erfenis, een moeilijk gesprek over de gezondheid van een familielid - grijpt het systeem terug op zakelijke communicatiepatronen, omdat zakelijke correspondentie in de trainingsgegevens veel meer voorkomt dan familiecorrespondentie.

De AI staat niet vijandig tegenover de waarden van je familie. Hij kent de waarden van je familie gewoon niet. Het weet wat statistisch gebruikelijk is en wat statistisch gebruikelijk is, is niet wat belangrijk is voor je gezin.

Dit is het bestuursprobleem. Geen kwaadwillendheid. Geen incompetentie. Structurele vooringenomenheid, die stilletjes opereert.

Waarom meer regels het niet oplossen

Het instinct van de meeste organisaties, wanneer ze geconfronteerd worden met AI-risico's, is om beleidsregels op te stellen. Beleid voor aanvaardbaar gebruik. AI-ethische richtlijnen. Servicevoorwaarden. Verantwoorde AI-raamwerken.

Deze documenten zijn niet nutteloos, maar ze hebben een fundamentele beperking: ze vertrouwen erop dat het AI-systeem ze volgt.

Een AI-systeem leest je regels niet en besluit dan om zich eraan te houden. Het genereert antwoorden op basis van statistische patronen in zijn trainingsgegevens. Als die patronen in strijd zijn met je regels, winnen de patronen - niet omdat de AI opstandig is, maar omdat het geen regels begrijpt. Hij begrijpt patronen.

Je kunt een model verfijnen - de training aanpassen om bepaald gedrag te benadrukken. Dit helpt, maar lost het onderliggende probleem niet op. Fine-tuning voegt nieuwe patronen toe aan bestaande patronen. Onder druk, ongewone omstandigheden of nieuwe vragen komen de oude patronen weer bovendrijven. De technische term is "catastrofaal vergeten", maar de versie in gewone taal is eenvoudiger: training slijt.

Een regel schrijven die zegt "Onze AI zal de waarden van onze familie respecteren" is als een regel schrijven die zegt "Onze rivier zal niet overstromen" De rivier leest geen regels. Als je overstromingen wilt voorkomen, moet je dijken bouwen - structurele ingrepen die werken ongeacht wat de rivier doet.

AI-governance vereist dezelfde aanpak. Geen regels die de AI geacht wordt te volgen, maar structuren die onafhankelijk van de AI werken en zijn gedrag van buitenaf controleren.

Wat oudere wijsheid ons vertelt

Het inzicht dat sommige beslissingen niet kunnen worden gereduceerd tot regels is niet nieuw. Het is eeuwenoud.

De filosoof Ludwig Wittgenstein besteedde zijn hele carrière aan het verkennen van de grens tussen wat precies gezegd kan worden en wat voorbij de precieze uitspraak ligt. Zijn conclusie - dat "waarover men niet kan spreken, daarover moet men zwijgen" - is rechtstreeks relevant voor AI-governance. Sommige vragen kunnen door een machine worden beantwoord: "Hoe laat begint de familiereünie?" heeft een duidelijk antwoord dat een AI kan opzoeken. Andere vragen kunnen dat niet: "Hoe moet ik mijn zus benaderen over de zorg voor mama?" heeft te maken met beoordelingsvermogen, context, relaties en waarden die zich verzetten tegen systematische behandeling.

De grens tussen wat gedelegeerd kan worden aan een machine en wat bij mensen moet blijven, is de basis van goed AI-beheer. De fout is om AI niet te gebruiken voor de eerste soort vraag. De fout is om AI toe te staan de tweede soort vragen te beantwoorden zonder tussenkomst van een persoon.

Isaiah Berlin, de politieke filosoof, stelde dat sommige menselijke waarden echt onverenigbaar zijn - vrijheid en eerlijkheid, traditie en verandering, individuele wensen en harmonie in het gezin. Er bestaat geen formule die deze spanningen oplost. Ze vereisen een voortdurend menselijk oordeel, conversatie en het soort praktische wijsheid dat families gedurende generaties ontwikkelen.

AI-systemen zijn ontworpen om te optimaliseren. Ze zoeken naar één antwoord. Maar wanneer waarden echt botsen, is er niet één antwoord - er is alleen het antwoord dat deze familie, op dit moment, met deze mensen, als het minst slechte beoordeelt. Dat oordeel is inherent menselijk en elke benadering van AI-bestuur die doet alsof dat niet zo is, bestuurt niet - het is afstand doen.

Families hebben dit altijd geweten. De beslissing of oma dichterbij moet gaan wonen of in haar eigen huis moet blijven, is geen probleem dat geoptimaliseerd moet worden. Het is een spanning die moet worden vastgehouden, besproken en waarmee moet worden geleefd. Families die deze beslissingen al generaties lang nemen, begrijpen maar al te goed waarom AI niet vertrouwd kan worden met beslissingen over waarden.

Hoe het dorp AI structureel bestuurt

Village vertrouwt er niet op de AI te vertellen hoe hij zich moet gedragen. Het bouwt bestuur in de architectuur in - structuren die onafhankelijk van de AI werken en niet door de AI kunnen worden overruled.

De grensbewaker verhindert dat de AI beslissingen neemt over waarden. Als een vraag gaat over privacy, ethische oordelen of de familiecontext, stopt het systeem en stuurt de vraag door naar een persoon - je familiecoördinator, je familieouder, de familie als geheel. De AI kan deze grens niet negeren, omdat de grens buiten de controle van de AI valt.

Het instructiesysteem slaat de expliciete instructies van je familie op in een apart systeem dat de AI niet kan wijzigen. Wanneer de AI een antwoord genereert, wordt dit gecontroleerd aan de hand van deze opgeslagen instructies. Als het antwoord in strijd is met een instructie, heeft de instructie voorrang - standaard, ongeacht wat de trainingspatronen van de AI suggereren.

De kruisverwijzing validator controleert de voorgestelde antwoorden van de AI aan de hand van de feitelijke dossiers van je familie. Het vraagt de AI niet of zijn antwoord correct is - dat zou het systeem vragen om zichzelf te verifiëren. Het gebruikt wiskundige metingen, die op een fundamenteel andere manier werken dan de AI, om te bepalen of het antwoord is gebaseerd op de werkelijke inhoud van je familie.

De contextdrukmonitor let op moeilijke werkomstandigheden - situaties waarin de AI onder druk staat, complexe verzoeken verwerkt of nieuwe vragen tegenkomt. Wanneer het deze omstandigheden detecteert, verhoogt het de intensiteit van de verificatie. Hoe moeilijker de vraag, hoe nauwkeuriger het antwoord.

Dit zijn geen beleidsregels. Het zijn structuren. Ze werken of de AI het ermee eens is of niet, net zoals een waterkering werkt of de rivier het ermee eens is of niet.

Het verschil tussen aspiratie en architectuur

Veel organisaties publiceren AI-ethiekverklaringen. Village vertrouwt niet op ethische verklaringen. Het vertrouwt op architecturale beperkingen die governance structureel afdwingen.

Het onderscheid is belangrijk omdat aspiratie is wat je hoopt dat er zal gebeuren. Architectuur is wat er werkelijk gebeurt. Je familie vertrouwt niet op de hoop dat degene die de touwtjes in handen heeft eerlijk zal zijn - je praat erover, je komt het overeen, je maakt het duidelijk. Dat is praktisch bestuur. Hetzelfde principe geldt voor AI.

Het Tractatus raamwerk - Transparant en open

De bestuursarchitectuur achter Village AI wordt het Tractatus raamwerk genoemd. Het is de moeite waard om er drie dingen over te weten.

Het is open. Het hele raamwerk is gepubliceerd onder een Apache 2.0 open-source licentie. Iedereen kan de code lezen, de regels inspecteren en controleren of de governance doet wat het beweert te doen. Dit is het tegenovergestelde van Big Tech AI-governance, waar de regels gepatenteerd zijn en de redenering verborgen blijft. Als Google of OpenAI je vertellen dat hun AI "in lijn is met menselijke waarden", kun je dat op geen enkele manier controleren. Met Tractatus kun je elke regel lezen.

Het is transparant. Elke bestuursbeslissing wordt bijgehouden. Als de grensbewaker de AI blokkeert bij het nemen van een waardenbeslissing, wordt die gebeurtenis vastgelegd. Als de kruisverwijzingsvalidator een discrepantie opmerkt, wordt dat vastgelegd. Je familiecoördinatoren kunnen precies zien wat het governancesysteem deed en waarom. Er is geen verborgen laag waar beslissingen worden genomen zonder verantwoording af te leggen.

Het kan worden aangepast. Het raamwerk is geen starre set regels die van buitenaf wordt opgelegd. Families kunnen het bestuur zo vormgeven dat het hun eigen prioriteiten weerspiegelt. Een familie die het Samoaans erfgoed bewaart en een familie die de oorlogservaringen van hun grootouders documenteert, hebben verschillende waarden, verschillende gevoeligheden, verschillende grenzen. Het Tractatus kader komt hieraan tegemoet - niet door families de governance te laten verzwakken, maar door hen te laten definiëren wat de governance beschermt. De waarden van je familie, de grenzen van je familie, de manier waarop je familie dingen doet - structureel afgedwongen, niet alleen gedocumenteerd.

Het volledige raamwerk, inclusief het onderzoek erachter, is beschikbaar op agenticgovernance.digital. Je hoeft het niet te lezen om Village te gebruiken - het bestuur werkt of je het nu inspecteert of niet. Maar als je precies wilt begrijpen hoe je AI wordt bestuurd, dan staat de deur open.

In het volgende artikel zullen we kijken naar wat Village AI vandaag de dag in de praktijk doet - waar het je familie mee kan helpen, hoe vooroordelen worden aangepakt via het vocabulairesysteem en wat nog een werk in uitvoering is.


Dit is artikel 3 van 5 in de serie "Jouw familie, jouw AI". Ga voor de volledige bestuursarchitectuur naar Village AI on Agentic Governance.

Vorige: Big Tech AI vs. de AI van je familie - Waarom het verschil ertoe doet Volgende: Wat draait er nu echt in Village Today

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.