Big Tech AI vs. AI binnen uw gemeenschap - Waarom het verschil telt
Serie: Jouw gemeenschap, jouw AI - Inzicht in Village AI voor gemeenschapsgroepen (Artikel 2 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0
Waar Big Tech AI zijn manieren leert
Stel je voor dat je een kind opvoedt in een huishouden waar de enige boeken marketingbrochures, argumenten van sociale media en Wikipedia zijn. Dat kind zou welbespraakt zijn, in zekere zin belezen en in staat om vloeiende teksten te schrijven over bijna elk onderwerp. Maar het zou een bepaalde kijk op de wereld hebben - commercieel gevormd, controversieel, zelfverzekerd in toon ongeacht de diepte. Ze zouden weten hoe ze gezaghebbend moeten klinken zonder per se wijs te zijn.
Dit is, grofweg, hoe Big Tech AI-systemen worden opgevoed.
ChatGPT, Google Gemini en hun collega's worden getraind op enorme hoeveelheden tekst die van het internet worden geschraapt. Miljarden pagina's. Het resultaat is een systeem dat bijna alles kan bespreken, maar waarvan de standaardwaarden, aannames en instincten worden gevormd door wat het internet oververtegenwoordigt.
Het internet over-representeert:
- Engelstalige inhoud (en binnen het Engels, Amerikaans Engels)
- Commerciële en marketingtaal
- Individualistische framing ("wat is het beste voor jou")
- Seculiere therapeutische taal voor emotionele en morele vragen
- Technisch en professioneel discours
- Inhoud van de laatste twintig jaar, met beperkte historische diepgang
Het internet is ondervertegenwoordigd:
- Gemeenschapsbestuur en commissietaal
- Gemeenschappelijke besluitvormingstradities
- Niet-westerse morele kaders
- Mondelinge tradities en vertelculturen
- De doorleefde ervaring van kleine, gewortelde gemeenschappen
- De eigen geschiedenis, mensen en gebruiken van je groep
Wanneer een lid van je groep een Big Tech AI-systeem vraagt om een meningsverschil tijdens een clubbijeenkomst op te lossen, grijpt het naar raamwerken voor conflictoplossing die afkomstig zijn van HR in het bedrijfsleven - niet omdat het dat superieur heeft bevonden, maar omdat dat de belangrijkste trainingsgegevens zijn. Het biedt niet de praktische wijsheid van ervaren commissieleden, de conventies die je groep in de loop der jaren heeft ontwikkeld of de aanpak die werkt als je dezelfde mensen volgende maand weer op de vergadering ziet. Deze patronen zijn statistisch gezien zeldzaam in de gegevens waaruit het programma heeft geleerd.
Dit is geen fout die kan worden hersteld met betere aanwijzingen. Het is structureel. Het karakter van het systeem wordt bepaald door zijn opvoeding en zijn opvoeding was het internet.
Wat "Lokaal Opgeleid" Eigenlijk Betekent
Village AI werkt anders en het verschil zit hem niet in het feit dat het kleiner of minder capabel is. Het verschil zit hem in waar de AI zijn patronen leert.
Een Village AI voor je gemeenschapsgroep wordt getraind op drie lagen inhoud:
De platformlaag. Dit is de basis - hoe het Village-platform werkt, welke functies beschikbaar zijn, hoe je door het systeem navigeert. Elk dorp deelt deze laag. Dit betekent dat de AI een nieuw lid kan helpen zijn weg te vinden, kan uitleggen hoe je een aankondiging deelt of deelneemt aan een videogesprek, zonder dat je deze basisbeginselen helemaal opnieuw hoeft te leren.
De gemeenschapslaag. Dit is wat jouw dorp de jouwe maakt. De AI leert van de inhoud die je groep heeft gemaakt - nieuwsbrieven, aankondigingen die leden hebben gedeeld, beschrijvingen van evenementen, documenten die je commissie heeft gepubliceerd. Als een lid vraagt "Wat is er vorig jaar gebeurd op de jaarlijkse algemene vergadering?", kan de AI antwoorden uit de eigen gegevens van je groep, niet uit een gok gebaseerd op hoe algemene vergaderingen er over het algemeen uitzien op het internet.
**Geen inhoud komt in de training van de AI zonder expliciete toestemming. Een lid dat een aankondiging deelt, kan kiezen of die inhoud wordt opgenomen in de kennis van de AI. Inhoud die als privé is gemarkeerd, blijft privé - structureel, niet alleen door beleid. De AI heeft geen toegang tot wat hij nooit heeft gekregen.
Het resultaat is een systeem dat jouw groep kent - niet het idee van het internet over wat een gemeenschapsgroep zou kunnen zijn. Wanneer het helpt bij het opstellen van een nieuwsbrief, baseert het zich op de patronen van je eerdere nieuwsbrieven, niet op sjablonen voor bedrijfscommunicatie. Als het een vraag beantwoordt over jouw gemeenschap, dan doet het dat op basis van de gegevens van jouw groep, niet op basis van een statistisch gemiddelde van alle gemeenschapsgroepen.
Guardian Agents: De bewakers aan de poort
Zelfs een lokaal getrainde AI kan fouten maken. Hij kan zich een detail verkeerd herinneren, twee gebeurtenissen door elkaar halen of een antwoord genereren dat goed klinkt maar niet gebaseerd is op je werkelijke gegevens. Dit is de aard van de technologie - het voorspelt plausibele tekst, en plausibel is niet hetzelfde als accuraat.
Dit is waar Guardian Agents komen.
Guardian Agents zijn vier onafhankelijke verificatielagen die elke AI-respons controleren voordat deze het lid bereikt. Het zijn niet meer AI's - het zijn wiskundige meetsystemen die structureel los staan van de AI die ze controleren.
Dit is wat ze doen, in duidelijke bewoordingen:
De eerste bewaker neemt het antwoord van de AI en meet hoe goed het overeenkomt met de werkelijke inhoud in de records van je community. Niet of het goed klinkt, maar of het wiskundig overeenkomt met echte documenten. Als de AI zegt "De commissie heeft besloten om het dak van het clubhuis in september te vervangen", dan controleert de toezichthouder of de notulen van je vergadering daadwerkelijk een beslissing bevatten over het vervangen van het dak in september.
De tweede bewaker splitst het antwoord op in individuele beweringen en controleert elke bewering apart. Een AI-antwoord zou drie beweringen kunnen bevatten - twee nauwkeurige en één verzonnen. De tweede voogd merkt de verzinsels op, zelfs als het algemene antwoord overtuigend klinkt.
De derde bewaker let op ongebruikelijke patronen in de tijd - verschuivingen in het gedrag van de AI, herhaalde fouten, outputs die bepaalde grenzen benaderen. Het bewaakt de gezondheid van het systeem, niet alleen individuele reacties.
De vierde bewaker leert van de feedback van je community. Als een lid een AI-respons als onbehulpzaam markeert - een simpel 'duimpje omlaag' is genoeg - onderzoekt het systeem wat er fout ging, classificeert het de hoofdoorzaak en past het aan. Moderators kunnen deze correcties bekijken en verfijnen, maar het leren begint bij de gewone leden. Na verloop van tijd wordt de AI meer afgestemd op de werkelijke kennis van je community, niet minder.
Elk AI-antwoord in Village heeft een vertrouwensindicator die het lid vertelt hoe goed het antwoord is onderbouwd. Veel vertrouwen betekent dat de bewaker sterke overeenkomsten heeft gevonden in je gegevens. Laag vertrouwen betekent dat het antwoord meer speculatief is. Leden kunnen elke AI-claim herleiden tot de bron - het specifieke document, de aankondiging of het dossier dat de claim ondersteunt.
Dit is geen functie die Big Tech AI biedt, omdat Big Tech AI niet is gebaseerd op je gegevens. Het is gebaseerd op het internet en er is geen praktische manier om miljarden pagina's aan trainingsgegevens te verifiëren aan de hand van een enkele reactie.
De afweging
Village AI is niet zo krachtig als ChatGPT of Gemini. Het kan geen poëzie schrijven in de stijl van Shakespeare, fotorealistische afbeeldingen genereren of een uitgebreid gesprek voeren over kwantumfysica. Het is een kleiner systeem met een gerichter doel.
Wat het in plaats daarvan biedt is trouw aan je gemeenschap - de inhoud, de waarden, het bestuur - gecombineerd met wiskundige verificatie dat de antwoorden zijn gebaseerd op je werkelijke gegevens en niet op de statistische patronen van het internet.
Voor een gemeenschapsgroep die hulp nodig heeft bij het opstellen van nieuwsbrieven, het beantwoorden van vragen van leden over groepsactiviteiten, het samenvatten van vergadernotulen of het organiseren van informatie over evenementen is dit geen beperking. Het is precies het juiste hulpmiddel.
De vraag is niet "welke AI is krachtiger?" De vraag is "welke AI dient mijn gemeenschap?"
Dit is artikel 2 van 5 in de serie "Your Community, Your AI". Voor de volledige Guardian Agents architectuur, bezoek Village AI on Agentic Governance.
Vorige: Wat AI eigenlijk is (en wat het niet is) Volgende: Waarom regels en training niet genoeg zijn - De bestuurlijke uitdaging