⚖ Leadership Edition

Big Tech vs Community

Nederlands

Big Tech AI versus door de gemeenschap bestuurde AI - waarom het verschil ertoe doet


Serie: AI-governance voor gemeenschapsleiders - Inzicht in Village AI voor bestuurders, raadsleden en bestuursleden (Artikel 2 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0


Waar Big Tech AI zijn manieren leert

Stel je eens voor wat er gebeurt als een systeem uitsluitend wordt getraind op het open internet - marketingmateriaal, uitwisselingen via sociale media en encyclopedie-items. Het systeem zou welbespraakt zijn, in zekere zin breed geïnformeerd en in staat om vloeiende teksten te produceren over bijna elk onderwerp. Maar het zou een bepaalde kijk op de wereld hebben - commercieel gevormd, controversieel, zelfverzekerd in toon ongeacht de diepte. Het zou weten hoe gezaghebbend te klinken zonder per se gezaghebbend te zijn.

Dit is, in praktische termen, hoe Big Tech AI-systemen worden getraind.

ChatGPT, Google Gemini en hun collega's worden getraind op enorme hoeveelheden tekst die van het internet worden geschraapt. Miljarden pagina's. Het resultaat is een systeem dat bijna alles kan bespreken, maar waarvan de standaardwaarden, aannames en instincten gevormd zijn door wat het internet oververtegenwoordigt.

Het internet over-representeert:

Het internet ondervertegenwoordigt:

Als een kiezer een vraag stelt over een besluit van de gemeenteraad en een Big Tech AI helpt bij het opstellen van het antwoord, grijpt de AI naar bedrijfscommunicatietaal - niet omdat die geschikt is bevonden, maar omdat die in de trainingsgegevens overheerst. Er wordt geen gebruik gemaakt van de conventies van openbare verantwoording, de taal van burgerplicht of de gematigde toon die past bij een orgaan dat verantwoording aflegt aan zijn gemeenschap, omdat deze patronen statistisch gezien zeldzaam zijn in de gegevens waarvan het heeft geleerd.

Dit is geen fout die gecorrigeerd kan worden met betere aanwijzingen. Het is structureel. Het karakter van het systeem wordt bepaald door zijn training, en zijn training was het internet.

Wat "Lokaal Getraind" Eigenlijk Betekent

Village AI werkt anders en het verschil zit hem niet in het kleiner of minder capabel zijn. Het verschil zit hem in waar de AI zijn patronen leert.

Een Village AI voor jouw organisatie wordt getraind op drie lagen inhoud:

De platformlaag. Dit is de basis - hoe het Village-platform werkt, welke functies beschikbaar zijn, hoe je door het systeem navigeert. Elke Village deelt deze laag. Dit betekent dat een nieuw lid van je organisatie zijn weg kan vinden, kan begrijpen hoe hij documenten kan openen of kan deelnemen aan een videovergadering, zonder dat hij deze basisbeginselen helemaal opnieuw hoeft te leren.

De organisatielaag. Dit is wat jouw Village de jouwe maakt. De AI leert van de inhoud die je organisatie daadwerkelijk heeft gemaakt - bestuursnotulen, aankondigingen, verslagen van evenementen, beleidsdocumenten, gepubliceerde rapporten. Als een kiezer vraagt "Wat heeft de raad het afgelopen kwartaal besloten over het buurthuis?", kan de AI antwoorden op basis van de eigen gegevens van je organisatie, niet op basis van een schatting van wat gemeenteraden over het algemeen bespreken.

Instemming bij elke stap. Er komt geen inhoud in de training van de AI zonder expliciete toestemming. Een lid dat inhoud bijdraagt, kan kiezen of die bijdrage wordt opgenomen in de kennisbank van de AI. Inhoud die gemarkeerd is als beperkt blijft beperkt - structureel, niet alleen door beleid. De AI heeft geen toegang tot wat hij nooit heeft gekregen. Onder GDPR is dit onderscheid tussen structurele en beleidsgebaseerde beperking belangrijk: structurele controles zijn aantoonbaar afdwingbaar; beleidscontroles zijn afhankelijk van naleving.

Het resultaat is een systeem dat uw organisatie kent - niet de benadering van het internet van hoe een organisatie als de uwe eruit zou kunnen zien. Wanneer het helpt bij het opstellen van een communicatie naar belanghebbenden, baseert het zich op de patronen van uw eerdere communicatie, niet op sjablonen voor zakelijke nieuwsbrieven. Als het antwoord geeft op een vraag over uw beslissingen, dan doet het dat op basis van uw gegevens en niet op basis van een statistisch gemiddelde.

Guardian Agents: De Verificatielaag

Zelfs een lokaal getrainde AI kan fouten maken. Het kan een detail verkeerd toewijzen, twee beslissingen door elkaar halen of een antwoord genereren dat aannemelijk klinkt maar niet is gebaseerd op uw werkelijke gegevens. Dit is de aard van de technologie - het voorspelt plausibele tekst, en plausibel is niet hetzelfde als accuraat.

Dit is waar Guardian Agents komen.

Guardian Agents zijn vier onafhankelijke verificatielagen die elke AI-respons controleren voordat deze het lid bereikt. Het zijn geen extra AI - het zijn wiskundige meetsystemen die structureel los staan van de AI waarop ze toezicht houden.

Dit is wat ze doen, in toegankelijke termen:

De eerste bewaker neemt het antwoord van de AI en meet hoe goed het overeenkomt met de werkelijke inhoud in de administratie van je organisatie. Niet of het correct klinkt, maar of het wiskundig overeenkomt met echte documenten. Als de AI zegt: "Het bestuur heeft besloten om in september geld toe te wijzen voor de speeltuin", dan controleert de beheerder of de notulen van het bestuur daadwerkelijk zo'n besluit bevatten.

De tweede voogd splitst het antwoord op in individuele beweringen en controleert elke bewering afzonderlijk. Een AI-antwoord kan drie beweringen bevatten - twee nauwkeurige en één verzonnen. De tweede voogd identificeert het verzinsel, zelfs als het algemene antwoord overtuigend klinkt.

De derde bewaker controleert op ongebruikelijke patronen in de tijd - verschuivingen in het gedrag van de AI, herhaalde fouten, outputs die bepaalde grenzen benaderen. Het bewaakt de gezondheid van het systeem, niet alleen individuele reacties.

De vierde bewaker leert van de feedback van je community. Als een lid een AI-respons als onbehulpzaam markeert - een eenvoudige interactie is voldoende - onderzoekt het systeem wat er fout ging, classificeert het de hoofdoorzaak en past het aan. Moderators kunnen deze correcties bekijken en verfijnen, maar het leren begint bij de gewone leden. Na verloop van tijd wordt de AI meer afgestemd op de werkelijke kennis van je organisatie, niet minder.

Elk AI-antwoord in Village heeft een vertrouwensindicator die het lid vertelt hoe goed het antwoord is onderbouwd. Hoog vertrouwen betekent dat de bewaker sterke overeenkomsten heeft gevonden in je gegevens. Laag vertrouwen betekent dat het antwoord meer speculatief is. Leden kunnen elke AI-claim herleiden tot de bron - het specifieke document, de minuut of het dossier dat de claim ondersteunt.

Dit is geen functie die Big Tech AI biedt, omdat Big Tech AI niet is gebaseerd op je gegevens. Het is gebaseerd op het internet en er is geen praktische manier om miljarden pagina's aan trainingsgegevens te verifiëren aan de hand van een enkele reactie.

De nalevingsdimensie

Voor bestuursorganen heeft het verschil tussen Big Tech AI en community-governed AI directe gevolgen voor de regelgeving.

**Onder GDPR is de verantwoordelijke voor de verwerking verantwoordelijk voor de verwerking van persoonsgegevens. Wanneer uw organisatie een Big Tech AI-systeem gebruikt en er gegevens van onderdelen naar de servers van die provider stromen, ontstaan er vragen over controle, gezamenlijke controle en adequate gegevensverwerkingsovereenkomsten. Village AI verwerkt gegevens binnen de infrastructuur die uw organisatie controleert, zonder dat er gegevens naar externe AI-aanbieders stromen.

Het recht op uitleg. Artikel 22 van de GDPR en overwegingen van de EU AI Act stellen verwachtingen vast dat personen die worden getroffen door geautomatiseerde besluitvorming zinvolle informatie kunnen ontvangen over de betrokken logica. Big Tech AI-systemen zijn bedrijfseigen - de redenering achter hun output is niet beschikbaar voor inzage. Village AI het bestuurskader van Big Tech AI, de Tractatus, is open-source en controleerbaar. Elke bestuursbeslissing wordt vastgelegd en kan worden herzien.

**Voor organisaties die onderhevig zijn aan nationale gegevenssoevereiniteitseisen, is de locatie van gegevensverwerking van belang. Big Tech AI-systemen verwerken doorgaans gegevens in rechtsgebieden die worden bepaald door de leverancier. De dorpsinfrastructuur kan worden gespecificeerd om zich binnen een bepaalde jurisdictie te bevinden - in de huidige implementatie, de Europese Unie.

Risicoclassificatie. De AI-wet van de EU classificeert AI-systemen op risiconiveau. AI die wordt gebruikt in het openbaar bestuur of bij beslissingen die van invloed zijn op de toegang van individuen tot essentiële diensten kan worden geclassificeerd als systemen met een hoger risico. Het gebruik van een systeem waarbij de governance transparant en controleerbaar is en onder controle van de organisatie staat, is een wezenlijk andere regelgevende positie dan het gebruik van een ondoorzichtig systeem van een derde partij.

Dit zijn geen theoretische kwesties. Dit zijn de praktische vragen die een verantwoordelijk bestuurder, raadslid of bestuurslid zich zou moeten stellen voordat een AI wordt ingevoerd.

De afweging

Village AI is niet zo krachtig als ChatGPT of Gemini. Het kan geen poëzie schrijven, fotorealistische afbeeldingen genereren of een uitgebreid gesprek voeren over theoretische natuurkunde. Het is een kleiner systeem met een gerichter doel.

Wat het in plaats daarvan biedt, is verantwoording afleggen aan je gemeenschap - de inhoud, de waarden, het bestuurskader - gecombineerd met wiskundige verificatie dat de antwoorden zijn gebaseerd op je feitelijke gegevens en niet op de statistische patronen van het internet.

Voor een organisatie die hulp nodig heeft bij het opstellen van mededelingen, het beantwoorden van vragen van kiezers over gemeenschapsactiviteiten, het samenvatten van bestuursdocumenten of het coördineren van informatie over evenementen, is dit geen beperking. Het is het juiste hulpmiddel voor het doel.

De vraag is niet "welke AI is krachtiger?" De vraag is "voor welke AI kan jouw organisatie verantwoordelijk zijn?"


Dit is artikel 2 van 5 in de serie "AI Governance for Community Leaders". Voor de volledige Guardian Agents architectuur, bezoek Village AI on Agentic Governance.

Vorige: Wat AI eigenlijk is (en wat het niet is) Volgende: Waarom regels en training niet genoeg zijn - De bestuurlijke uitdaging

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.