👥 Community Edition

Governance Challenge

Nederlands

Waarom regels en training niet genoeg zijn - De bestuurlijke uitdaging


Serie: Jouw gemeenschap, jouw AI - Inzicht in Village AI voor gemeenschapsgroepen (Artikel 3 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0


De brief aan ouders

Voordat we de filosofie van het bestuur bespreken, beginnen we met een verhaal over een brief.

Een schooldirecteur vraagt een AI-systeem om te helpen bij het opstellen van een brief aan ouders over een gevoelig incident. Ze is specifiek: ze wil een toon die zorgzaam en weloverwogen is en gebaseerd op de waarden van de school: vertrouwen en collectieve verantwoordelijkheid. Ze typt haar verzoek zorgvuldig in en wacht.

De AI produceert een goed gestructureerde brief. Hij is duidelijk, professioneel en grondig. Er wordt gesproken over "communicatie met belanghebbenden", "risicobeperking", "het beheersen van de gevolgen voor de reputatie" en "zorgen dat wordt voldaan aan de openbaarmakingsverplichtingen" Het leest efficiënt. Het klinkt competent. En het is helemaal verkeerd.

De ouders hebben geen behoefte aan stakeholdermanagement. Ze moeten het horen van een school die ze vertrouwen. Ze hebben geen behoefte aan risicobeperkende taal. Ze willen de geruststelling dat hun kinderen veilig zijn en dat de schoolgemeenschap voor elkaar zorgt. De directeur vroeg om zorgvuldigheid en verantwoordelijkheid, en de AI gaf haar bedrijfscrisiscommunicatie - omdat haar trainingsgegevens duizend PR-playbooks bevatten voor elke die met de stem van een school spreekt.

De AI weigerde de instructie van de directeur niet. Hij zei niet "Ik ken de cultuur van uw school niet" De AI verving simpelweg waar ze om vroeg door wat statistisch gezien vaker voorkwam in de trainingsgegevens. De vervanging was stil. Als het schoolhoofd moe was, of gehaast, of minder oplettend dan normaal, zou ze het misschien niet gemerkt hebben. De brief zou zijn uitgegaan en de ouders zouden een mededeling uit de verkeerde traditie hebben ontvangen - professioneel geformuleerd, correct gestructureerd en subtiel vervreemdend.

Je telefoon corrigeert woorden. Je ziet de rode onderstreping en je corrigeert het. AI corrigeert waarden. En er is geen onderstreping.

Wanneer patronen waarden overschrijven

De schoolbrief staat niet op zichzelf. Hetzelfde mechanisme werkt in elke AI conversatie.

Wanneer een lid een AI-systeem om advies vraagt over een moeilijke interpersoonlijke situatie binnen de groep, grijpt het systeem terug naar de taal van individuele therapie - assertiviteitstraining, grenzen stellen, zelfzorg - omdat dat de dominante trainingsgegevens zijn. Het grijpt niet naar de taal van wederzijdse aanpassing, geven en nemen en de praktische wijsheid die voortkomt uit de wetenschap dat je nog jaren met deze persoon zult samenwerken tijdens bijeenkomsten.

Als een secretaresse van een club de AI vraagt om te helpen met een gevoelige mededeling aan de leden, gebruikt hij standaard bedrijfscommunicatietaal - stakeholdermanagement, kaders voor berichtgeving, gespreksonderwerpen - omdat zakelijke correspondentie veel belangrijker is dan gemeenschapscorrespondentie in zijn trainingsgegevens.

De AI staat niet vijandig tegenover de cultuur van je groep. Hij kent de cultuur van je groep gewoon niet. Hij weet wat statistisch gezien gebruikelijk is en wat statistisch gezien gebruikelijk is, is niet wat het belangrijkst is voor uw gemeenschap.

Dit is het bestuursprobleem. Geen kwaadwillendheid. Niet incompetentie. Structurele vooringenomenheid, die stilletjes opereert.

Waarom meer regels het niet oplossen

Het instinct van de meeste organisaties, wanneer ze geconfronteerd worden met AI-risico's, is om beleidsregels op te stellen. Beleid voor aanvaardbaar gebruik. AI-ethische richtlijnen. Servicevoorwaarden. Verantwoorde AI-raamwerken.

Deze documenten zijn niet nutteloos, maar ze hebben een fundamentele beperking: ze vertrouwen erop dat het AI-systeem ze volgt.

Een AI-systeem leest je beleidsdocument niet en besluit dan om zich eraan te houden. Het genereert antwoorden op basis van statistische patronen in zijn trainingsgegevens. Als die patronen in strijd zijn met je beleid, winnen de patronen - niet omdat de AI rebels is, maar omdat het geen beleid begrijpt. Het verwerkt patronen.

Je kunt een model verfijnen - de training aanpassen om bepaald gedrag te benadrukken. Dit helpt, maar lost het onderliggende probleem niet op. Fine-tuning voegt nieuwe patronen toe bovenop de bestaande. Onder druk, ongewone omstandigheden of nieuwe vragen komen de oude patronen weer bovendrijven. De technische term is "catastrofaal vergeten", maar de versie in gewone taal is eenvoudiger: training slijt.

Een beleid schrijven dat zegt "Onze AI zal de waarden van onze gemeenschap respecteren" is als een beleid schrijven dat zegt "Onze rivier zal niet overstromen" De rivier leest geen beleid. Als je overstromingen wilt voorkomen, moet je dijken bouwen - structurele ingrepen die werken ongeacht wat de rivier doet.

AI-governance vereist dezelfde aanpak. Geen regels die de AI geacht wordt te volgen, maar structuren die onafhankelijk van de AI opereren en zijn gedrag van buitenaf controleren.

Wat de bestuurstradities ons vertellen

Het inzicht dat sommige beslissingen niet kunnen worden gereduceerd tot regels is niet nieuw. Het is eeuwenoud.

De filosoof Ludwig Wittgenstein besteedde zijn hele carrière aan het verkennen van de grens tussen wat precies kan worden gezegd en wat voorbij de precieze verklaring ligt. Zijn conclusie - dat "waarover men niet kan spreken, daarover moet men zwijgen" - is rechtstreeks relevant voor AI-governance. Sommige vragen kunnen gesystematiseerd worden: "Hoe laat is de volgende vergadering?" heeft een duidelijk antwoord dat een AI kan opzoeken. Andere vragen kunnen dat niet: "Hoe moet ik deze kwestie bij de commissie aankaarten zonder aanstoot te geven?" gaat over oordelen, context, relaties en waarden die zich verzetten tegen een systematische behandeling.

De grens tussen wat aan een machine kan worden gedelegeerd en wat bij mensen moet blijven, is de basis van goed AI-bestuur. De fout is niet om AI te gebruiken voor de eerste soort vraag. De fout is om AI toe te staan de tweede soort vragen te beantwoorden zonder menselijk toezicht.

Isaiah Berlin, de politieke filosoof, stelde dat sommige menselijke waarden echt onverenigbaar zijn - vrijheid en gelijkheid, traditie en vooruitgang, individueel geweten en gemeenschappelijke harmonie. Er bestaat geen formule die deze spanningen oplost. Ze vereisen een voortdurend menselijk oordeel, onderhandeling en het soort praktische wijsheid dat gemeenschappen in de loop van generaties ontwikkelen.

AI-systemen zijn ontworpen om te optimaliseren. Ze zoeken naar één antwoord. Maar wanneer waarden echt botsen, is er niet één antwoord - er is alleen het antwoord dat deze groep, op dit moment, met deze mensen, als het minst slecht beoordeelt. Dat oordeel is inherent menselijk en elk AI-bestuurskader dat doet alsof het anders is, bestuurt niet - het geeft zich over.

Gemeenschapsgroepen hebben hun eigen versie van dit inzicht. Elke commissie die een beperkt budget heeft afgewogen tegen concurrerende prioriteiten, of een meningsverschil heeft uitgevochten tussen leden die al lang lid zijn, of heeft besloten hoe nieuwkomers welkom te heten zonder de gevestigde leden van zich te vervreemden, begrijpt al - uit praktische ervaring - waarom AI niet vertrouwd kan worden met beslissingen over waarden.

Hoe het dorp AI structureel bestuurt

Village vertrouwt er niet op de AI te vertellen zich te gedragen. Het bouwt bestuur in de architectuur in - structuren die onafhankelijk van de AI werken en niet door de AI kunnen worden overruled.

De grensbewaker verhindert dat de AI beslissingen neemt over waarden. Als een vraag gaat over privacy-afwegingen, ethische oordelen of culturele context, stopt het systeem en wordt de vraag doorgestuurd naar een mens - je moderator, je voorzitter, je commissie. De AI kan deze grens niet opheffen, omdat de grens buiten de controle van de AI valt.

Het instructiesysteem slaat de expliciete instructies van je gemeenschap op in een apart systeem dat de AI niet kan wijzigen. Als de AI een antwoord genereert, wordt dit gecontroleerd aan de hand van deze opgeslagen instructies. Als het antwoord in strijd is met een instructie, heeft de instructie voorrang - standaard, ongeacht wat de trainingspatronen van de AI suggereren.

De kruisverwijzing validator controleert de voorgestelde acties van de AI aan de hand van de werkelijke gegevens van je gemeenschap. Het vraagt de AI niet of zijn antwoord correct is - dat zou het systeem vragen om zichzelf te verifiëren. Het gebruikt wiskundige metingen, die op een fundamenteel andere manier werken dan de AI, om te bepalen of het antwoord is gebaseerd op de werkelijke inhoud van uw gemeenschap.

De contextdrukmonitor let op verslechterde werkomstandigheden - situaties waarin de AI onder druk staat, complexe verzoeken verwerkt of op nieuwe vragen stuit. Wanneer het deze omstandigheden detecteert, verhoogt het de intensiteit van de verificatie. Hoe moeilijker de vraag, hoe nauwkeuriger het antwoord.

Dit zijn geen beleidsregels. Het zijn structuren. Ze werken of de AI het ermee eens is of niet, net zoals een waterkering werkt of de rivier het ermee eens is of niet.

Het verschil tussen aspiratie en architectuur

Veel organisaties publiceren AI-ethiekverklaringen. Village vertrouwt niet op ethische verklaringen. Het vertrouwt op architecturale beperkingen die governance structureel afdwingen.

Het onderscheid is belangrijk omdat aspiratie is wat je hoopt dat er zal gebeuren. Architectuur is wat er werkelijk gebeurt. Je groep vertrouwt niet op de hoop dat de penningmeester op de juiste manier met het geld omgaat - er zijn twee ondertekenaars nodig voor elke cheque. Dat is architecturaal bestuur. Hetzelfde principe geldt voor AI.

Het Tractatus raamwerk - Transparant en Open

De besturingsarchitectuur achter Village AI wordt het Tractatus raamwerk genoemd. Het is de moeite waard om er drie dingen over te weten.

Het is open. Het hele raamwerk is gepubliceerd onder een Apache 2.0 open-source licentie. Iedereen kan de code lezen, de regels inspecteren en controleren of de governance doet wat het beweert te doen. Dit is het tegenovergestelde van Big Tech AI-governance, waar de regels gepatenteerd zijn en de redenering verborgen blijft. Als Google of OpenAI je vertellen dat hun AI "in lijn is met menselijke waarden", kun je dat op geen enkele manier controleren. Met Tractatus kun je elke regel lezen.

Het is transparant. Elke bestuursbeslissing wordt bijgehouden. Als de grensbewaker de AI blokkeert bij het nemen van een waardenbeslissing, wordt die gebeurtenis vastgelegd. Als de kruisverwijzing-validator een discrepantie opmerkt, wordt dat vastgelegd. Je beheerders kunnen precies zien wat het beheersysteem deed en waarom. Er is geen verborgen laag waar beslissingen worden genomen zonder verantwoording af te leggen.

Het kan worden aangepast. Het raamwerk is geen starre set regels die van buitenaf wordt opgelegd. Gemeenschappen kunnen het bestuur zo vormgeven dat het hun eigen prioriteiten weerspiegelt. Een sportclub en een oudervereniging hebben verschillende waarden, verschillende gevoeligheden, verschillende grenzen. Het Tractatus kader komt hieraan tegemoet - niet door gemeenschappen het bestuur te laten verzwakken, maar door hen te laten bepalen wat het bestuur beschermt. De statuten van je groep, de prioriteiten van je groep, de grenzen van je groep - structureel afgedwongen, niet alleen gedocumenteerd.

Het volledige raamwerk, inclusief het onderzoek erachter, is beschikbaar op agenticgovernance.digital. Je hoeft het niet te lezen om Village te gebruiken - het bestuur werkt of je het nu inspecteert of niet. Maar als je precies wilt begrijpen hoe je AI wordt bestuurd, dan staat de deur open.

In het volgende artikel kijken we naar wat Village AI vandaag de dag in de praktijk doet - waar het je groep mee kan helpen, hoe bias wordt aangepakt via het vocabulaire systeem, en wat nog een werk in uitvoering is.


Dit is artikel 3 van 5 in de serie "Jouw gemeenschap, jouw AI". Ga voor de volledige bestuursarchitectuur naar Village AI on Agentic Governance.

Vorige: Big Tech AI vs. Uw Community AI - Waarom het verschil ertoe doet Volgende: Wat draait er nu echt in Village Today

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.