Big Tech AI vs. de AI van uw gemeenschap - Waarom het verschil van belang is
Serie: To Hapori, To AI - Digitale soevereiniteit voor inheemse gemeenschappen (Artikel 2 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0
Waar Big Tech AI zijn manieren leert
Stel je voor dat je een kind opvoedt in een huishouden waar de enige boeken marketingbrochures, argumenten van sociale media en Wikipedia zijn. Dat kind zou welbespraakt zijn, in zekere zin belezen en in staat om vloeiend tekst te schrijven over bijna elk onderwerp. Maar het zou een bepaalde kijk op de wereld hebben - commercieel gevormd, controversieel, zelfverzekerd in toon ongeacht de diepte. Ze zouden weten hoe ze gezaghebbend moeten klinken zonder per se wijs te zijn.
Dit is, grofweg, hoe Big Tech AI-systemen worden opgevoed.
ChatGPT, Google Gemini en hun collega's worden getraind op enorme hoeveelheden tekst die van het internet worden geschraapt. Miljarden pagina's. Het resultaat is een systeem dat bijna alles kan bespreken, maar waarvan de standaardwaarden, aannames en instincten worden gevormd door wat het internet oververtegenwoordigt.
Het internet over-representeert:
- Engelstalige inhoud (en binnen het Engels, Amerikaans Engels)
- Commerciële en marketingtaal
- Individualistische framing ("wat is het beste voor jou")
- Seculiere therapeutische taal voor emotionele en morele vragen
- Technisch en professioneel discours
- Inhoud van de laatste twintig jaar, met beperkte historische diepgang
Het internet ondervertegenwoordigt:
- Mondelinge tradities en vertelculturen
- Collectieve besluitvormingstradities
- Inheemse kennissystemen en talen
- Niet-westerse morele en relationele kaders
- De doorleefde ervaring van kleine, gewortelde gemeenschappen
- De werkelijke geschiedenis, mensen en gebruiken van je gemeenschap
Voor inheemse gemeenschappen is dit gebrek aan evenwicht geen ongemak. Het is een voortzetting van een patroon dat eeuwen voor het internet bestond: de systematische marginalisatie van inheemse kennis ten gunste van westerse raamwerken. Het internet heeft dit gebrek aan evenwicht niet gecreëerd - het heeft het geërfd, versterkt en gecodeerd in de trainingsgegevens van elk groot AI-systeem.
Als je whanau-lid een Big Tech AI-systeem vraagt hoe het moet omgaan met een familieverplichting, grijpt het naar de taal van individuele grenzen en zelfzorg - niet omdat het dat superieur heeft bevonden, maar omdat dat is wat de trainingsgegevens domineert. Het biedt niet het concept van whanaungatanga, of het begrip dat verplichtingen aan whanau geen lasten zijn die moeten worden beheerd, maar relaties die moeten worden geëerd. Deze patronen zijn statistisch gezien zeldzaam in de data waarvan het heeft geleerd.
Dit is geen fout die verholpen kan worden met betere aansporingen. Het is structureel. Het karakter van het systeem wordt bepaald door de opvoeding en de opvoeding was het internet.
Wat "Lokaal Opgeleid" Eigenlijk Betekent
Village AI werkt anders en het verschil zit hem niet in het feit dat het kleiner of minder capabel is. Het verschil zit hem in waar de AI zijn patronen leert.
Een Village AI voor je community wordt getraind op drie lagen content:
De platformlaag. Dit is de basis - hoe het Village-platform werkt, welke functies beschikbaar zijn, hoe je door het systeem navigeert. Elk dorp deelt deze laag. Dit betekent dat de AI een nieuw whanau-lid kan helpen zijn weg te vinden, kan uitleggen hoe je een verhaal deelt of deelneemt aan een videogesprek, zonder dat je deze basisbeginselen helemaal opnieuw hoeft te leren.
De gemeenschapslaag. Dit is wat jouw dorp de jouwe maakt. De AI leert van de inhoud die je gemeenschap heeft gecreëerd - aankondigingen, verhalen die leden hebben gedeeld, beschrijvingen van evenementen, documenten die je runanga of comité heeft gepubliceerd. Als een whanau-lid vraagt "Wat is er vorige maand op de hui gebeurd?", kan de AI antwoorden vanuit de eigen gegevens van je gemeenschap, niet vanuit een gok gebaseerd op hoe hui er over het algemeen uitziet op het internet.
**Geen inhoud komt in de training van de AI zonder expliciete toestemming. Een lid dat een verhaal deelt, kan kiezen of dat verhaal wordt opgenomen in de kennis van de AI. Inhoud die als privé is gemarkeerd, blijft privé - structureel, niet alleen door beleid. De AI heeft geen toegang tot wat hij nooit heeft gekregen.
Voor inheemse gemeenschappen is deze toestemmingsarchitectuur bijzonder belangrijk. Inheemse gegevenssoevereiniteit - het principe dat inheemse volken het recht hebben om de verzameling, het eigendom en de toepassing van hun eigen gegevens te bepalen - is geen functie die achteraf kan worden toegevoegd. Het moet worden ingebouwd in het fundament. Het toestemmingsmodel van Village is niet perfect, maar het begint met het juiste uitgangspunt: de gegevens van jouw gemeenschap behoren toe aan jouw gemeenschap en er wordt geen inhoud gebruikt zonder expliciete toestemming.
Het resultaat is een systeem dat jouw gemeenschap kent - niet het idee van het internet over wat een inheemse gemeenschap zou kunnen zijn. Wanneer het helpt bij het opstellen van een aankondiging, baseert het zich op de patronen van je eerdere communicatie, niet op sjablonen voor zakelijke nieuwsbrieven. Als het antwoord geeft op een vraag over jouw gemeenschap, dan doet het dat op basis van de gegevens van jouw gemeenschap en niet op basis van een statistisch gemiddelde van alle gemeenschappen.
Kaitiakitanga, geen eigendom
Westerse technologieplatformen framen gegevens in termen van eigendom - wie is de eigenaar van de gegevens, wie heeft er rechten op, wie kan ze verkopen. Dit frame komt van nature voor in een traditie die gebouwd is op eigendomsrechten.
Maar voor veel inheemse gemeenschappen, en vooral binnen Te Ao Maori, is het meer accurate concept kaitiakitanga - voogdij, rentmeesterschap. Gegevens over je whanau, je hapu, je gemeenschap zijn geen eigendom dat je kunt bezitten en verhandelen. Het is een taonga (schat) die moet worden verzorgd, beschermd en doorgegeven aan de volgende generatie in ten minste dezelfde goede staat als waarin je ze hebt ontvangen.
Dit onderscheid is praktisch van belang, niet alleen filosofisch.
Een platform dat gebouwd is op eigendomslogica vraagt: "Wie heeft het recht op toegang tot deze gegevens?" Een platform gebouwd op kaitiakitanga logica vraagt: "Wie heeft de verantwoordelijkheid om zorg te dragen voor deze kennis en wat zijn de juiste protocollen voor het delen ervan?"
Village beweert niet dat het een volledig kaitiakitanga model voor gegevensbeheer te hebben geïmplementeerd. Dat zou een diepere betrokkenheid bij specifieke gemeenschappen vereisen dan een platform op algemeen niveau kan bereiken. Maar de architectuur ondersteunt de belangrijkste elementen: controle van de gemeenschap over wat er wordt gedeeld, toestemming op elk niveau, de mogelijkheid om kennis te beperken tot de juiste groepen binnen de gemeenschap en de structurele onmogelijkheid voor het platform of een externe partij om toegang te krijgen tot gemeenschapsgegevens zonder toestemming.
Guardian Agents: De bewakers aan de poort
Zelfs een lokaal getrainde AI kan fouten maken. Hij kan zich een detail verkeerd herinneren, twee gebeurtenissen door elkaar halen of een antwoord genereren dat goed klinkt maar niet gebaseerd is op je werkelijke gegevens. Dit is de aard van de technologie - het voorspelt plausibele tekst, en plausibel is niet hetzelfde als accuraat.
Dit is waar Guardian Agents komen.
Guardian Agents zijn vier onafhankelijke verificatielagen die elke AI-respons controleren voordat deze het lid bereikt. Het zijn niet meer AI's - het zijn wiskundige meetsystemen die structureel los staan van de AI die ze controleren.
Dit is wat ze doen, in duidelijke bewoordingen:
De eerste bewaker neemt het antwoord van de AI en meet hoe goed het overeenkomt met de werkelijke inhoud in de records van je community. Niet of het goed klinkt - of het wiskundig overeenkomt met echte documenten. Als de AI zegt: "De runanga heeft besloten om in september door te gaan met het bouwproject", dan controleert de bewaker of er daadwerkelijk een beslissing over een bouwproject in september in je dossier staat.
De tweede voogd splitst het antwoord op in individuele beweringen en controleert elke bewering afzonderlijk. Een AI-antwoord kan drie beweringen bevatten - twee nauwkeurige en één verzonnen. De tweede voogd merkt de verzinsels op, zelfs als het algemene antwoord overtuigend klinkt.
De derde bewaker let op ongebruikelijke patronen in de tijd - verschuivingen in het gedrag van de AI, herhaalde fouten, outputs die bepaalde grenzen benaderen. Het bewaakt de gezondheid van het systeem, niet alleen individuele reacties.
De vierde bewaker leert van de feedback van je gemeenschap. Als een whanau-lid een AI-respons als onbehulpzaam markeert - een simpel 'duimpje omlaag' is genoeg - onderzoekt het systeem wat er fout ging, classificeert het de hoofdoorzaak en past het aan. Moderators kunnen deze correcties bekijken en verfijnen, maar het leren begint bij de gewone leden. Na verloop van tijd wordt de AI meer afgestemd op de werkelijke kennis van je community, niet minder.
Elk AI-antwoord in Village heeft een vertrouwensindicator die het lid vertelt hoe goed het antwoord is onderbouwd. Veel vertrouwen betekent dat de bewaker sterke overeenkomsten heeft gevonden in je gegevens. Laag vertrouwen betekent dat het antwoord meer speculatief is. Leden kunnen elke AI-claim herleiden tot de bron - het specifieke document, verhaal of dossier dat de claim ondersteunt.
Dit is geen functie die Big Tech AI biedt, omdat Big Tech AI niet is gebaseerd op je gegevens. Het is gebaseerd op het internet en er is geen praktische manier om miljarden pagina's aan trainingsgegevens te verifiëren aan de hand van een enkele reactie.
De afweging
Village AI is niet zo krachtig als ChatGPT of Gemini. Het kan geen poëzie schrijven in de stijl van Shakespeare, fotorealistische afbeeldingen genereren of een uitgebreid gesprek voeren over kwantumfysica. Het is een kleiner systeem met een gerichter doel.
Wat het in plaats daarvan biedt is trouw aan je gemeenschap - de inhoud, de waarden, het bestuur - gecombineerd met wiskundige verificatie dat de antwoorden zijn gebaseerd op je werkelijke gegevens en niet op de statistische patronen van het internet.
Voor een inheemse gemeenschap die hulp nodig heeft bij aankondigingen, het beantwoorden van whanau-vragen over gemeenschapsactiviteiten, het samenvatten van hui notulen, het coördineren van evenementen of het bewaren van verhalen en kennis - is dit geen beperking. Het is precies het juiste gereedschap voor de taak.
De vraag is niet "welke AI is krachtiger?" De vraag is "welke AI dient mijn gemeenschap - en welke draagt de patronen van de cultuur die ons historisch heeft gemarginaliseerd?"
Dit is artikel 2 van 5 in de serie "To Hapori, To AI". Voor de volledige Guardian Agents architectuur, bezoek Village AI on Agentic Governance.
Vorige: Wat AI eigenlijk is (en wat het niet is) Volgende: Waarom regels en training niet genoeg zijn - De bestuurlijke uitdaging