🎓 Academia Edition

Big Tech vs Community

Nederlands

Platform-AI versus Gemeenschapsbestuur-AI - Een structurele analyse


Serie: Community-Scale AI Governance - Een onderzoeksperspectief op het dorpsplatform (Artikel 2 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0 International


Het Corpusprobleem

De bestuurseigenschappen van een AI-systeem worden in belangrijke mate bepaald door het trainingscorpus. Dit is geen secundaire zorg - het is een architecturale eigenschap van de eerste orde.

Commerciële LLM's van grote platformproviders worden getraind op corpora op webschaal: miljarden documenten die van het open internet worden geschraapt, aangevuld met gelicentieerde datasets en bedrijfseigen collecties. De resulterende systemen zijn breed qua mogelijkheden en overeenkomstig breed in hun aannames over distributie.

Het internet, als trainingscorpus, oververtegenwoordigt bepaalde domeinen en perspectieven:

Dienovereenkomstig ondervertegenwoordigt het:

Deze scheve verdeling kan niet worden gecorrigeerd door schaal. Een groter webcorpus versterkt dezelfde vertekeningen. Het is een structurele eigenschap van de gegevensbron, geen steekproeffout.

Domein-specifieke AI: het alternatief en zijn beperkingen

Het Village platform gebruikt een andere architecturale benadering: een kleiner model, getraind op een gelaagd corpus dat domeinspecifieke inhoud boven breedte stelt.

De trainingsarchitectuur bestaat uit drie lagen:

**Gemeenschappelijke operationele kennis gedeeld door alle implementaties - hoe het platform werkt, welke functies beschikbaar zijn, navigatiehulp. Deze laag is analoog aan een gedeelde ontologie voor alle instanties.

Community laag. Inhoud die specifiek is voor een bepaalde toepassing - de records, communicaties en documenten die geproduceerd worden door de gemeenschap die de toepassing gebruikt. Deze laag onderscheidt de ene toepassing van de andere en plaatst de output van het model in de lokale context.

**Een structurele beperking: er komt geen inhoud in het trainingscorpus zonder expliciete, controleerbare toestemming van de maker van de inhoud. Dit wordt architecturaal afgedwongen, niet door beleid.

Het resulterende systeem is beperkter dan een commerciële LLM. Het kan geen onderwerpen buiten het trainingsdomein met enige competentie bespreken. Het zal geen creatieve teksten met een algemeen doel produceren of deelnemen aan brede gesprekken. In plaats daarvan biedt het outputs aan die gebaseerd zijn op de gegevens van een specifieke gemeenschap, controleerbaar aan de hand van die gegevens.

Beperkingen van deze benadering

We moeten een aantal beperkingen onder ogen zien:

**Een domeinspecifiek model kan niet assisteren bij taken buiten zijn trainingsdomein. Leden van de gemeenschap die algemene AI-hulp nodig hebben, moeten een apart systeem gebruiken.

Beperkte omvang van het corpus. Kleine gemeenschappen produceren beperkte inhoud. Een model dat getraind is op een paar honderd documenten heeft een dienovereenkomstig smalle kennisbank. De kwaliteit van de output wordt direct beperkt door het volume en de kwaliteit van de inhoud van de community.

**De gemeenschapslaag moet periodiek worden bijgeschoold om nieuwe inhoud op te nemen. Tussen de hertrainingscycli is de kennis van het model oud. De huidige hertrainingsfrequentie (wekelijks tijdens beta) kan onvoldoende zijn voor snel veranderende contexten.

Fine-tuning kwetsbaarheid. Domeinspecifieke fine-tuning legt nieuwe patronen op de bestaande verdeling van een basismodel. Onder bepaalde omstandigheden - met name bij nieuwe of complexe vragen - kunnen de patronen van het basismodel opnieuw opduiken, een fenomeen dat in de literatuur bekend staat als catastrofaal vergeten. De mate waarin dit in de praktijk van invloed is op bestuur-relevante output is voor dit systeem nog niet goed gekarakteriseerd.

Guardian Agents: Externe Verificatiearchitectuur

Het Village platform vertrouwt niet alleen op training om de uitvoerkwaliteit te garanderen. Het plaatst een verificatielaag - "Guardian Agents" - tussen de output van het model en de eindgebruiker.

De Guardian Agent architectuur bestaat uit vier onafhankelijke verificatiemechanismen:

Semantic grounding verification. De output van het model wordt vergeleken met het documentencorpus van de gemeenschap met behulp van op inbedding gebaseerde similariteitsmetingen. Uitvoer die niet voldoende gegrond is in feitelijke records wordt gemarkeerd of onderdrukt.

Ontleding op claimniveau. De output wordt ontleed in individuele claims, die elk onafhankelijk worden geverifieerd. Dit is een oplossing voor de veelvoorkomende foutmodus waarbij een antwoord een mengeling van beweringen met en zonder grond bevat.

**Een longitudinale bewakingslaag volgt patronen in de uitvoer van het model in de loop van de tijd en detecteert systematische verschuivingen in toon, kader of nauwkeurigheid die kunnen duiden op spreidingsdrift of degradatie.

Integratie van adaptieve feedback. De feedback van de leden van de gemeenschap (zowel expliciete beoordelingen als correcties van de moderator) wordt opgenomen in de verificatiedrempels. Dit creëert een feedbacklus waarbij het verificatiesysteem na verloop van tijd beter wordt afgestemd op de verwachtingen van de gemeenschap.

Tegenargumenten en faalwijzen

De Guardian Agent architectuur is een onderzoeksbijdrage, geen opgelost probleem. Verschillende tegenargumenten en faalwijzen moeten worden onderzocht:

Semantische gelijkenis is geen waarheid. Verificatie op basis van inbedding meet semantische nabijheid, niet feitelijke juistheid. Een bewering die semantisch dicht bij een brondocument staat, kan nog steeds feitelijk onjuist zijn - parafrases kunnen de betekenis omkeren terwijl de inbeddingsovereenkomst behouden blijft. De decompositielaag op claimniveau pakt dit gedeeltelijk aan, maar er blijven fout-positieven en fout-negatieven bestaan.

Verificatiedekking is onvolledig. De beschermers kunnen claims verifiëren aan de hand van bestaande records. Ze kunnen geen claims verifiëren over onderwerpen die niet gedekt worden door de records van de gemeenschap. Voor nieuwe vragen staat het systeem voor de keuze tussen weigeren te antwoorden (conservatief maar niet behulpzaam) en het genereren van niet-verifieerbare resultaten (behulpzaam maar onbewaakt). De huidige implementatie markeert antwoorden met een lage betrouwbaarheid in plaats van ze te onderdrukken, waardoor de verificatielast naar de eindgebruiker wordt verplaatst.

**Het adaptieve feedbackmechanisme gaat ervan uit dat de feedback van de gemeenschap een betrouwbaar signaal is. In de praktijk kan feedback schaars zijn, gericht op bepaalde demografische groepen gebruikers of voorkeuren weerspiegelen die in strijd zijn met de nauwkeurigheid. Het systeem maakt momenteel geen onderscheid tussen feedback die feitelijke fouten corrigeert en feedback die esthetische of ideologische voorkeuren weerspiegelt.

Computationele overhead. Vierlaagse verificatie voegt latentie en computationele kosten toe. Voor tijdgevoelige zoekopdrachten kan deze overhead de gebruikerservaring zodanig verslechteren dat het systeem niet meer gebruikt wordt - een bestuurlijke mislukking door niet-adoptie in plaats van door een technische fout.

De afweging: een analytisch kader

De keuze tussen commerciële AI en door de gemeenschap bestuurde AI is geen keuze tussen een goede en een slechte optie. Het is een keuze tussen verschillende afruilprofielen:

Dimensie Commercieel platform AI Gemeenschapsbestuur AI
Breedte van bekwaamheid Hoog Laag (domeinspecifiek)
Distributievooringenomenheid Reflecteert web-schaal corpus Reflecteert community corpus
Verifieerbaarheid Laag (bedrijfseigen, ondoorzichtig) Hoger (open source, controleerbaar)
Gegevenssoevereiniteit Gegevens stromen naar provider Gegevens blijven binnen gemeenschapsgrenzen
Verificatiearchitectuur: gecontroleerd door de aanbieder, inspecteerbaar door de gemeenschap
Computational resources Substantial (cloud-scale) Constrained (local or small-cloud)
Generaliseerbaarheid Hoog Laag (door ontwerp)

Geen van beide profielen is categorisch superieur. De juiste keuze hangt af van de bestuurlijke prioriteiten van de uitvoerende gemeenschap - een punt dat zelf een bestuurlijke beslissing vormt.

Repliceerbaarheid en generaliseerbaarheid

Een vraag van bijzonder belang voor de onderzoeksgemeenschap is of de Village architectuur repliceerbaar en generaliseerbaar is buiten de huidige inzetcontext.

Het platform is ontworpen voor multi-tenant gebruik in verschillende gemeenschapstypes (de huidige implementatie ondersteunt negen producttypes, van parochies tot natuurbehoudsgroepen tot alumniverenigingen). Het vocabulairesysteem past de terminologie aan de context van de gemeenschap aan, wat een zekere mate van generaliseerbaarheid in de platformlaag suggereert.

Verschillende factoren beperken echter het vertrouwen in de generaliseerbaarheid:

Dit zijn open onderzoeksvragen, geen opgeloste ontwerpbeslissingen.


Dit is artikel 2 van 5 in de serie "Community-Scale AI Governance". Voor de volledige Guardian Agents architectuur, bezoek Village AI on Agentic Governance.

Vorige: Wat AI is, wat het niet is en wat nog onzeker is Volgende: Waarom AI-governance op basis van beleid onvoldoende is - Het structurele alternatief

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.