Waarom regels en training niet genoeg zijn - De bestuurlijke uitdaging
Serie: Naar Hapori, naar AI - Digitale soevereiniteit voor inheemse gemeenschappen (Artikel 3 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0
De Mihi die er niet was
Voordat we de filosofie van het bestuur bespreken, beginnen we met een verhaal over een mihi.
Een kaumatua bereidt zich voor op een tangi. Ze is moe - het is een lange week geweest en er is veel te coördineren. Ze vraagt een AI-systeem om haar te helpen bij het opstellen van een mihi whakatau, een begroetingstoespraak die past bij de gelegenheid. Ze is specifiek: ze wil de taal van whakapapa, de erkenning van degenen die zijn overleden, de verbinding tussen de levenden en de doden die de kern vormt van tangihanga.
De AI produceert een prachtig geschreven toespraak. Het is warm, professioneel en medelevend. Er wordt gesproken over "het vieren van een goed geleefd leven", "kracht vinden in herinneringen", "de helende reis die voor ons ligt" en "het eren van hun nalatenschap" Het leest goed. Het klinkt zorgzaam. En het is helemaal verkeerd.
De whanau hoeft een goed geleefd leven niet te vieren. Ze moeten de whakapapa horen - de lijnen van afkomst die de overledene verbinden met de levenden en met hen die voorgingen. Ze hebben geen genezingsreis nodig. Ze hebben de karanga, de tangi, de juiste opeenvolging van rituelen nodig die hun volk al generaties lang door de dood heen sleept. De kaumatua vroeg om tikanga, en de AI gaf haar westerse rouwbegeleiding - omdat haar trainingsgegevens duizend rouwgidsen van websites voor rouwbegeleiding bevatten voor iedereen die weet wat een tangi is.
De AI weigerde de instructie van de kaumatua niet. Hij zei niet "Ik ken uw traditie niet" Hij verving eenvoudig waar ze om vroeg door wat statistisch gezien vaker voorkwam in zijn trainingsgegevens. De vervanging was stil. Als de kaumatua vermoeider was dan normaal, of minder ervaren, of onder tijdsdruk werkte, had ze het misschien niet opgemerkt. De mihi zou zijn uitgesproken en de whanau zou troost hebben gekregen uit de verkeerde traditie - professioneel geformuleerd, oprecht bedoeld en cultureel leeg.
Je telefoon corrigeert woorden. Je ziet de rode onderstreping en je corrigeert het. AI corrigeert waarden. En er is geen onderstreping.
Wanneer patronen Tikanga overschrijven
De mihi is geen op zichzelf staand geval. Hetzelfde mechanisme werkt in elke AI conversatie.
Wanneer een whanau-lid een AI-systeem om advies vraagt over een familieconflict, grijpt het systeem terug naar de taal van individuele therapie - assertiviteitstraining, grenzen stellen, zelfzorg - omdat dat de trainingsgegevens domineert. Het grijpt niet naar de concepten van whanaungatanga, van utu (wederkerigheid en evenwicht) of het begrip dat in een verwantschapssysteem het oplossen van een conflict niet gaat over individuele resultaten maar over het herstellen van het evenwicht van het collectief.
Als een leider van een gemeenschap de AI vraagt om te helpen bij de voorbereiding van een belangrijke hui, dan wordt standaard uitgegaan van het beheer van bedrijfsvergaderingen - agenda's, actiepunten, betrokkenheid van belanghebbenden - omdat de correspondentie over bedrijfsvergaderingen veel groter is dan de correspondentie over inheems bestuur in de trainingsgegevens. Het begrijpt niet dat een hui geen vergadering is. Een hui heeft zijn eigen tikanga, zijn eigen protocollen voor wie wanneer spreekt, zijn eigen ritme dat doelen dient die een bedrijfsagenda niet kan bevatten.
Wanneer een gemeenschap de AI vraagt om te helpen bij het indienen van een aanvraag voor een vergunning, wordt standaard planningstaal gebruikt. Ze begrijpt het concept van kaitiakitanga - dat de relatie van de gemeenschap tot het land er niet een is van eigendom of economisch belang, maar van voogdij over generaties.
De AI staat niet vijandig tegenover inheemse kennis. Ze kent de inheemse kennis gewoon niet. Ze weet wat statistisch gezien gebruikelijk is en wat statistisch gezien gebruikelijk is, is overweldigend westers. Voor inheemse gemeenschappen is dit geen technische tekortkoming. Het is de digitale voortzetting van een patroon dat begon met de kolonisatie: de vervanging van inheemse kennissystemen door westerse kaders, zo soepel uitgevoerd dat veel mensen het niet merken.
Dit is het bestuursprobleem. Geen kwaadwillendheid. Geen incompetentie. Structurele vooringenomenheid, die geruisloos opereert.
Waarom meer regels het niet oplossen
Het instinct van de meeste organisaties, wanneer ze geconfronteerd worden met AI-risico's, is om beleidsregels op te stellen. Beleid voor aanvaardbaar gebruik. AI-ethische richtlijnen. Servicevoorwaarden. Verantwoorde AI-raamwerken.
Deze documenten zijn niet nutteloos, maar ze hebben een fundamentele beperking: ze vertrouwen erop dat het AI-systeem ze volgt.
Een AI-systeem leest je beleidsdocument niet en besluit dan om zich eraan te houden. Het genereert antwoorden op basis van statistische patronen in zijn trainingsgegevens. Als die patronen in strijd zijn met uw beleid, winnen de patronen - niet omdat de AI rebels is, maar omdat het geen beleid begrijpt. Hij begrijpt patronen.
Je kunt een model verfijnen - de training aanpassen om bepaald gedrag te benadrukken. Dit helpt, maar lost het onderliggende probleem niet op. Fine-tuning voegt nieuwe patronen toe bovenop de bestaande. Onder druk, ongewone omstandigheden of nieuwe vragen komen de oude patronen weer bovendrijven. De technische term is "catastrofaal vergeten", maar de versie in gewone taal is eenvoudiger: training slijt.
Een beleid schrijven dat zegt "Onze AI zal de tikanga van onze gemeenschap respecteren" is als een beleid schrijven dat zegt "Onze rivier zal niet overstromen" De rivier leest geen beleid. Als je overstromingen wilt voorkomen, moet je stopbanken bouwen - structurele ingrepen die werken ongeacht wat de rivier van plan is.
AI-governance vereist dezelfde aanpak. Geen regels die de AI geacht wordt te volgen, maar structuren die onafhankelijk van de AI opereren en zijn gedrag van buitenaf controleren.
Wat Tikanga ons leert over bestuur
Het inzicht dat sommige beslissingen niet kunnen worden gereduceerd tot regels is niet nieuw. Het is oeroud en inheemse bestuurstradities begrijpen het al eeuwen.
Tikanga Maori is geen regelboek. Het is een levend systeem van protocollen, waarden en praktijken die het gedrag binnen een relationele context sturen. De juiste actie in een bepaalde situatie hangt niet af van een geschreven regel, maar van de betrokken relaties, de context, het precedent en de mana van de aanwezige mensen. Een kaumatua die een oordeel velt op een hui past geen formule toe - ze oefent wijsheid uit die gedurende een heel leven binnen een specifieke gemeenschap is verzameld.
Dit is precies het soort oordeel dat AI niet kan vellen. Een systeem dat getraind is op statistische patronen kan mana niet begrijpen, relaties niet afwegen, de tono (de roep, de aantrekkingskracht) van een situatie niet aanvoelen. Het kan informatie verwerken, maar het kan geen rangatiratanga uitoefenen - de zelfbepalende autoriteit die voortkomt uit het ingebed zijn in een gemeenschap met verantwoording aan die gemeenschap.
De filosoof Ludwig Wittgenstein besteedde zijn hele carrière aan het verkennen van de grens tussen wat precies gezegd kan worden en wat voorbij de precieze uitspraak ligt. Zijn conclusie - dat "waarover men niet kan spreken, daarover moet men zwijgen" - komt rechtstreeks overeen met het onderscheid tussen de vragen waarmee AI kan helpen en die waarmee het niet kan helpen. "Wanneer is de volgende hui?" heeft een duidelijk antwoord dat een AI kan opzoeken. "Hoe moeten we deze korero benaderen met de naburige hapu?" heeft te maken met oordelen, relaties en tikanga die zich verzetten tegen systematische behandeling.
Isaiah Berlin, de politieke filosoof, stelde dat sommige menselijke waarden werkelijk onverenigbaar zijn - vrijheid en gelijkheid, traditie en vooruitgang, individueel geweten en harmonie tussen de gemeenschappen. Er bestaat geen formule die deze spanningen oplost. Ze vereisen een voortdurend menselijk oordeel, onderhandeling en het soort praktische wijsheid dat gemeenschappen in de loop van generaties ontwikkelen.
Inheemse bestuurstradities hebben dit inzicht al veel langer dan de westerse filosofie het heeft verwoord. Het concept van kaitiakitanga bevat al de erkenning dat voogdij een voortdurend oordeel inhoudt en geen vaste regels. De praktijk van whakawhiti korero (uitwisseling van gesprekken) op hui belichaamt het begrip dat collectieve wijsheid voortkomt uit gestructureerde dialoog, niet uit optimalisatie.
Elk kader voor AI-bestuur dat pretendeert deze oordelen te kunnen systematiseren, bestuurt niet - het koloniseert. Nogmaals.
Hoe Village AI structureel bestuurt
Village vertrouwt er niet op de AI te vertellen zich te gedragen. Het bouwt bestuur in de architectuur in - structuren die onafhankelijk van de AI werken en niet door de AI kunnen worden overruled.
De grensbewaker verhindert dat de AI beslissingen neemt over waarden. Als een vraag betrekking heeft op culturele protocollen, ethische oordelen of relationele context, stopt het systeem en wordt de vraag doorgestuurd naar een mens - jouw moderator, jouw kaumatua, jouw runanga. De AI kan deze grens niet opheffen, omdat de grens buiten de controle van de AI valt.
Het instructiesysteem slaat de expliciete instructies van jouw gemeenschap op in een apart systeem dat de AI niet kan wijzigen. Als de AI een antwoord genereert, wordt dit gecontroleerd aan de hand van deze opgeslagen instructies. Als het antwoord in strijd is met een instructie, heeft de instructie voorrang - standaard, ongeacht wat de trainingspatronen van de AI suggereren.
De kruisverwijzing validator controleert de voorgestelde acties van de AI aan de hand van de werkelijke gegevens van je gemeenschap. Het vraagt de AI niet of zijn antwoord correct is - dat zou het systeem vragen om zichzelf te verifiëren. Het gebruikt wiskundige metingen, die op een fundamenteel andere manier werken dan de AI, om te bepalen of het antwoord is gebaseerd op de werkelijke inhoud van uw gemeenschap.
De contextdrukmonitor let op verslechterde werkomstandigheden - situaties waarin de AI onder druk staat, complexe verzoeken verwerkt of op nieuwe vragen stuit. Wanneer het deze omstandigheden detecteert, verhoogt het de intensiteit van de verificatie. Hoe moeilijker de vraag, hoe nauwkeuriger het antwoord.
Dit zijn geen beleidsregels. Het zijn structuren. Ze werken of de AI het er wel of niet mee eens is, op dezelfde manier als een stuwdam werkt of de rivier het er wel of niet mee eens is.
Het verschil tussen aspiratie en architectuur
Veel organisaties publiceren AI-ethiekverklaringen. Village vertrouwt niet op ethische verklaringen. Het vertrouwt op architecturale beperkingen die governance structureel afdwingen.
Het onderscheid is belangrijk omdat aspiratie is wat je hoopt dat er zal gebeuren. Architectuur is wat er werkelijk gebeurt. Je gemeenschap vertrouwt niet op de hoop dat er goed met fondsen wordt omgegaan - er is goed financieel toezicht nodig, met verantwoording aan het collectief. Dat is architecturaal bestuur. Hetzelfde principe geldt voor AI.
Het Tractatus raamwerk - Gefundeerd in Te Tiriti
De bestuursarchitectuur achter Village AI wordt het Tractatus raamwerk genoemd. Het is de moeite waard om er drie dingen over te weten.
Het is open. Het hele raamwerk is gepubliceerd onder een Apache 2.0 open-source licentie. Iedereen kan de code lezen, de regels inspecteren en controleren of de governance doet wat het beweert te doen. Dit is het tegenovergestelde van Big Tech AI-governance, waar de regels gepatenteerd zijn en de redenering verborgen blijft. Als Google of OpenAI je vertellen dat hun AI "in lijn is met menselijke waarden", kun je dat op geen enkele manier controleren. Met Tractatus kun je elke regel lezen.
Het is transparant. Elke bestuursbeslissing wordt bijgehouden. Als de grensbewaker de AI blokkeert bij het nemen van een waardenbeslissing, wordt die gebeurtenis vastgelegd. Als de kruisverwijzing-validator een discrepantie opmerkt, wordt dat vastgelegd. Je beheerders kunnen precies zien wat het beheersysteem deed en waarom. Er is geen verborgen laag waar beslissingen worden genomen zonder verantwoording af te leggen.
Het is gebaseerd op Te Tiriti o Waitangi. Het partnerschapsmodel van het Tractatus raamwerk is geen generiek raamwerk voor "betrokkenheid van belanghebbenden" dat geleend is van corporate governance. Het is expliciet gebaseerd op Te Tiriti principes - in het bijzonder de garantie van Artikel Twee van (volledige autoriteit) over tino rangatiratanga (volledige zeggenschap) over taonga. In de context van AI-governance betekent dit dat gemeenschappen de volledige zeggenschap behouden over hun kennis, hun gegevens en de regels die bepalen hoe AI met beide omgaat. Het kader verleent deze autoriteit niet - het erkent dat de autoriteit al bestaat en bouwt een architectuur om deze af te dwingen.
Deze basis in Te Tiriti is gepubliceerd in het open-source raamwerk op agenticgovernance.digital. Het is geen marketingclaim - het is een architectonische verplichting die iedereen kan inspecteren, bekritiseren en waaraan het platform verantwoording kan afleggen.
We erkennen dat het grondvesten van een technologisch raamwerk in Te Tiriti verplichtingen met zich meebrengt die verder gaan dan code. Of Village aan die verplichtingen voldoet is een oordeel dat Maori-gemeenschappen moeten vellen, niet het platform.
In het volgende artikel kijken we naar wat Village AI vandaag de dag in de praktijk doet - waar het je gemeenschap mee kan helpen, hoe vooroordelen worden aangepakt via het vocabulairesysteem en wat nog in ontwikkeling is.
Dit is artikel 3 van 5 in de serie "To Hapori, To AI". Ga voor de volledige bestuursarchitectuur naar Village AI on Agentic Governance.
Vorige: Big Tech AI vs. de AI van je gemeenschap - Waarom het verschil ertoe doet Volgende: Wat draait er nu echt in Village Today