💼 Business Edition

Governance Challenge

Nederlands

Waarom regels en training niet genoeg zijn - De bestuurlijke uitdaging


Serie: Uw bedrijf, uw AI - Inzicht in Village AI voor kleine bedrijven (Artikel 3 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0


De Klantenbrief

Voordat we de besturingsfilosofie bespreken, beginnen we met een verhaal over een brief.

Een directeur vraagt een AI-systeem om te helpen bij het opstellen van een brief aan een oude klant met een betalingsachterstand. Ze is specifiek: ze wil een toon die de relatie erkent - vijftien jaar betrouwbaar zaken doen - en tegelijkertijd duidelijk is over het openstaande saldo. De klant maakt een moeilijke periode door en de brief moet streng maar respectvol zijn. Ze typt haar verzoek zorgvuldig en wacht.

De AI produceert een goed gestructureerde brief. Hij is professioneel, duidelijk en correct geformatteerd. Er wordt gesproken over "openstaande verplichtingen", "corrigerende maatregelen vereist binnen 14 dagen", "escalatie naar onze incassodepartement" en "onze plicht om de belangen van alle belanghebbenden te beschermen" Het leest goed. Het klinkt professioneel. En het is helemaal verkeerd.

De klant heeft geen behoefte aan een dreigement met incasso. Ze moeten weten dat de relatie gewaardeerd wordt en dat er een betalingsplan beschikbaar is. De directeur vroeg om vastberadenheid binnen een relatiecontext en de AI gaf haar boilerplate voor incasso - omdat de trainingsgegevens duizend incassobrieven bevatten voor elke brief die vastberadenheid koppelt aan oprechte zorg voor een langdurige relatie.

De AI weigerde de instructie van de directeur niet. Hij zei niet "Ik begrijp uw relatie met deze klant niet" De AI verving eenvoudig waar ze om vroeg door wat statistisch gezien vaker voorkwam in de trainingsgegevens. De vervanging was stil. Als de directeur druk was, of afgeleid, of minder oplettend dan normaal, zou ze het misschien niet gemerkt hebben. De brief zou de deur uit zijn gegaan en een relatie van vijftien jaar zou een toon-doof verzoek hebben ontvangen - professioneel geformuleerd, correct geformatteerd en volkomen ongepast.

Je telefoon corrigeert woorden. Je ziet de rode onderstreping en je corrigeert het. AI corrigeert automatisch waarden. En er is geen onderstreping.

Wanneer patronen waarden overschrijven

De brief aan de klant staat niet op zichzelf. Hetzelfde mechanisme werkt in elke AI-interactie.

Als een teamlid een AI-systeem om advies vraagt over een meningsverschil op de werkvloer, grijpt het systeem standaard naar Amerikaanse HR-taal - formele klachtenprocedures, documentatie voor procesdoeleinden, "een papieren spoor creëren" - omdat dat de dominante trainingsgegevens zijn. Het grijpt niet naar de taal van bemiddeling, coöperatieve probleemoplossing of de pragmatische conversatie die kenmerkend is voor kleinere organisaties waar mensen al jaren samenwerken.

Als een manager de AI vraagt om te helpen bij het communiceren van een moeilijke beslissing aan het team, grijpt het standaard terug op bedrijfscommunicatiepatronen - stakeholdermanagement, kernboodschappen, gecontroleerde openbaarmaking - omdat de interne communicatie van Fortune 500 veel meer is dan de doordachte communicatie van leidinggevenden in kleine bedrijven in de trainingsgegevens.

De AI staat niet vijandig tegenover de cultuur van je organisatie. Hij kent die gewoon niet. Hij weet wat statistisch gezien gebruikelijk is, en wat statistisch gezien gebruikelijk is, is niet wat geschikt is voor jouw bedrijf.

Dit is het bestuursprobleem. Geen kwaadwillendheid. Geen incompetentie. Structurele vooringenomenheid, stilletjes opererend.

Waarom meer regels het niet oplossen

Het instinct van de meeste organisaties, wanneer ze geconfronteerd worden met AI-risico's, is om beleidsregels op te stellen. Beleid voor aanvaardbaar gebruik. AI-ethische richtlijnen. Servicevoorwaarden. Verantwoorde AI-raamwerken.

Deze documenten zijn niet nutteloos, maar ze hebben een fundamentele beperking: ze vertrouwen erop dat het AI-systeem ze volgt.

Een AI-systeem leest je beleidsdocument niet en besluit dan om zich eraan te houden. Het genereert antwoorden op basis van statistische patronen in zijn trainingsgegevens. Als die patronen in strijd zijn met uw beleid, winnen de patronen - niet omdat de AI rebels is, maar omdat het geen beleid begrijpt. Hij begrijpt patronen.

Je kunt een model verfijnen - de training aanpassen om bepaald gedrag te benadrukken. Dit helpt, maar lost het onderliggende probleem niet op. Fine-tuning voegt nieuwe patronen toe bovenop de bestaande. Onder druk, ongewone omstandigheden of nieuwe vragen komen de oude patronen weer bovendrijven. De technische term is "catastrofaal vergeten", maar de versie in gewone taal is eenvoudiger: training slijt.

Een beleid schrijven dat zegt "Onze AI zal de waarden van onze organisatie respecteren" is als een beleid schrijven dat zegt "Onze rivier zal niet overstromen" De rivier leest geen beleid. Als je overstromingen wilt voorkomen, moet je dijken bouwen - structurele ingrepen die werken ongeacht wat de rivier van plan is.

AI-governance vereist dezelfde aanpak. Geen regels die de AI geacht wordt te volgen, maar structuren die onafhankelijk van de AI opereren en zijn gedrag van buitenaf controleren.

Wat bestuurstradities ons vertellen

Het inzicht dat sommige beslissingen niet kunnen worden gereduceerd tot regels is niet nieuw. Het is eeuwenoud.

De filosoof Ludwig Wittgenstein heeft zijn carrière besteed aan het verkennen van de grens tussen wat precies gezegd kan worden en wat voorbij de precieze uitspraak ligt. Zijn conclusie - dat "waarover men niet kan spreken, daarover moet men zwijgen" - is rechtstreeks relevant voor AI-governance. Sommige vragen kunnen gesystematiseerd worden: "Wat is het saldo op rekening 4072?" heeft een duidelijk antwoord dat een AI kan opzoeken. Andere vragen kunnen dat niet: "Hoe moeten we het prijsgesprek met deze specifieke klant aanpakken?" gaat over oordelen, context, relaties en waarden die zich verzetten tegen systematische behandeling.

De grens tussen wat aan een machine kan worden gedelegeerd en wat bij mensen moet blijven, is de basis van goed AI-beheer. De fout is om AI niet te gebruiken voor de eerste soort vraag. De fout is om AI toe te staan de tweede soort vragen te beantwoorden zonder menselijk toezicht.

Isaiah Berlin, de politieke filosoof, stelde dat sommige menselijke waarden echt onverenigbaar zijn - efficiëntie en grondigheid, groei en stabiliteit, individueel initiatief en collectieve coördinatie. Er bestaat geen formule die deze spanningen oplost. Ze vereisen een voortdurend menselijk oordeel, onderhandeling en het soort praktische wijsheid dat organisaties ontwikkelen na jaren van samenwerken.

AI-systemen zijn ontworpen om te optimaliseren. Ze zoeken naar één antwoord. Maar wanneer waarden echt botsen, is er niet één antwoord - er is alleen het antwoord dat deze organisatie, op dit moment, met deze mensen, als het juiste evenwicht beschouwt. Dat oordeel is inherent menselijk en elk AI-besturingsraamwerk dat doet alsof het anders is, bestuurt niet - het is afstand doen.

De coöperatieve traditie heeft haar eigen versie van dit inzicht. Democratische ledencontrole - één lid, één stem - is geen efficiëntiemaatregel. Het is de erkenning dat legitieme beslissingen de deelname van de betrokkenen vereisen. Een coöperatie die dit soort bestuur al tientallen jaren toepast, begrijpt tot in haar botten waarom AI niet vertrouwd kan worden met beslissingen over waarden.

Hoe het dorp AI structureel bestuurt

Village vertrouwt er niet op de AI te vertellen hoe hij zich moet gedragen. Het bouwt bestuur in de architectuur in - structuren die onafhankelijk van de AI werken en niet door de AI kunnen worden overruled.

De grensbewaker verhindert dat de AI beslissingen neemt over waarden. Als er bij een vraag sprake is van afwegingen op het gebied van privacy, ethische oordelen of relatiecontext, stopt het systeem en wordt de vraag doorgestuurd naar een mens - je manager, je directeur, je raad van bestuur. De AI kan deze grens niet opheffen, omdat de grens buiten de controle van de AI valt.

Het instructiepersistentiesysteem slaat de expliciete instructies van uw organisatie op in een apart systeem dat de AI niet kan wijzigen. Als de AI een antwoord genereert, wordt dit gecontroleerd aan de hand van deze opgeslagen instructies. Als de respons in strijd is met een instructie, heeft de instructie voorrang - standaard, ongeacht wat de trainingspatronen van de AI suggereren.

De kruisverwijzingsvalidator controleert de voorgestelde acties van de AI aan de hand van de werkelijke records van uw organisatie. Het vraagt de AI niet of zijn antwoord correct is - dat zou het systeem vragen om zichzelf te verifiëren. Het gebruikt wiskundige metingen, die op een fundamenteel andere manier werken dan de AI, om te bepalen of het antwoord is gebaseerd op de werkelijke inhoud van uw organisatie.

De contextdrukmonitor let op verslechterde werkomstandigheden - situaties waarin de AI onder druk staat, complexe verzoeken verwerkt of op nieuwe vragen stuit. Wanneer het deze omstandigheden detecteert, verhoogt het de intensiteit van de verificatie. Hoe moeilijker de vraag, hoe nauwkeuriger het antwoord.

Dit zijn geen beleidsregels. Het zijn structuren. Ze werken of de AI het ermee eens is of niet, net zoals een waterkering werkt of de rivier het ermee eens is of niet.

Het verschil tussen aspiratie en architectuur

Veel organisaties publiceren AI-ethiekverklaringen. Village vertrouwt niet op ethische verklaringen. Het vertrouwt op architecturale beperkingen die governance structureel afdwingen.

Het onderscheid is belangrijk omdat aspiratie is wat je hoopt dat er zal gebeuren. Architectuur is wat er werkelijk gebeurt. Je bedrijf vertrouwt niet op de hoop dat de financieel medewerker op de juiste manier met fondsen omgaat - het vereist dubbele autorisatie voor betalingen boven een bepaalde drempel. Dat is architecturaal bestuur. Hetzelfde principe geldt voor AI.

Het Tractatus raamwerk - Transparant en open

De besturingsarchitectuur achter Village AI wordt het Tractatus raamwerk genoemd. Het is de moeite waard om er drie dingen over te weten.

Het is open. Het hele raamwerk is gepubliceerd onder een Apache 2.0 open-source licentie. Iedereen kan de code lezen, de regels inspecteren en controleren of de governance doet wat het beweert te doen. Dit is het tegenovergestelde van Big Tech AI-governance, waar de regels gepatenteerd zijn en de redenering verborgen blijft. Als Google of OpenAI je vertellen dat hun AI "in lijn is met menselijke waarden", kun je dat op geen enkele manier controleren. Met Tractatus kun je elke regel lezen.

Het is transparant. Elke bestuursbeslissing wordt bijgehouden. Als de grensbewaker de AI blokkeert bij het nemen van een waardenbeslissing, wordt die gebeurtenis vastgelegd. Als de kruisverwijzingsvalidator een discrepantie opmerkt, wordt dat vastgelegd. Je managers kunnen precies zien wat het governancesysteem heeft gedaan en waarom. Er is geen verborgen laag waar beslissingen worden genomen zonder verantwoording af te leggen.

Het kan worden aangepast. Het raamwerk is geen starre set regels die van buitenaf wordt opgelegd. Organisaties kunnen de governance aanpassen aan hun eigen prioriteiten. Een juridische praktijk en een voedselcoöperatie hebben verschillende gevoeligheden, verschillende nalevingseisen, verschillende grenzen. Het Tractatus raamwerk komt hieraan tegemoet - niet door organisaties de governance te laten verzwakken, maar door hen te laten definiëren wat de governance beschermt. De statuten van uw organisatie, uw bedrijfswaarden, uw compliance-eisen - structureel afgedwongen, niet alleen gedocumenteerd.

Het volledige raamwerk, inclusief het onderzoek erachter, is beschikbaar op agenticgovernance.digital. Je hoeft het niet te lezen om Village te gebruiken - de governance werkt of je het nu inspecteert of niet. Maar als je precies wilt begrijpen hoe je AI wordt bestuurd, dan staat de deur open.

In het volgende artikel kijken we naar wat Village AI vandaag de dag in de praktijk doet - waar het je bedrijf mee kan helpen, hoe bias wordt aangepakt via het vocabulairesysteem en wat nog een werk in uitvoering is.


Dit is artikel 3 van 5 in de serie "Uw bedrijf, uw AI". Ga voor de volledige governance-architectuur naar Village AI on Agentic Governance.

Vorige: Big Tech AI vs. AI voor uw bedrijf - Waarom het verschil ertoe doet Volgende: Wat draait er nu echt in Village Today

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.