Fundamentele modellen versus domeinspecifieke inferentie - een structurele analyse
Serie: Architecturaal AI-bestuur op communautaire schaal - Een technisch onderzoek van Village AI (Artikel 2 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0 International
Het distributievoorrangsprobleem
Grensverleggende taalmodellen worden getraind op corpora die de statistische verdeling van tekst op het internet weerspiegelen. Dit is een welbekende observatie, maar de implicaties voor gebruikte systemen in gespecialiseerde domeinen zijn onderbelicht in de afstemmingsliteratuur.
De trainingsdistributie van een typisch groot taalmodel is te representatief:
- Engelstalige inhoud (en binnen het Engels, Amerikaans-Engelse orthografie en idioom)
- Commerciële, marketing- en bedrijfscommunicatie
- Individualistische framing van sociale en morele vragen
- Seculier therapeutisch taalgebruik voor emotionele en ethische contexten
- Technisch en professioneel discours
- Inhoud van de laatste twee decennia, met beperkte historische diepgang
Dienovereenkomstig ondervertegenwoordigt:
- Liturgische, devotionele en theologische taal
- Gemeenschappelijke besluitvormingstradities
- Niet-westerse morele en filosofische kaders
- Mondelinge tradities en verhaalculturen
- De voertaal van kleine, gewortelde gemeenschappen
- Domeinspecifieke corpora die niet goed vertegenwoordigd zijn op het open web
Het gevolg is geen willekeurige verdeling van fouten. Het is een systematische vertekening van de verdeling: bij onzekerheid keert het model terug naar het statistische centrum van zijn trainingsdistributie. Voor gemeenschappen waarvan de normen, woordenschat en waarden ondervertegenwoordigd zijn in die verdeling, is deze terugval stil en consistent.
Waarom Prompting en RLHF geen Distributional Priors bij de staart oplossen
Drie veelgebruikte benaderingen om het gedrag van funderingsmodellen aan te passen zijn systeemprompts, RLHF en constitutionele AI. Elk van deze benaderingen heeft gedocumenteerde beperkingen bij het werken aan de staart van de trainingsdistributie.
Systeemprompts bieden context op het moment van inferentie die de uitvoer van het model conditioneert. Ze zijn effectief als het gevraagde gedrag goed vertegenwoordigd is in de trainingsdistributie - de prompt activeert bestaande patronen. Ze zijn aanzienlijk minder effectief als het gevraagde gedrag in strijd is met sterke distributieve voorkeuren. Het model zal de prompt volgen waar het kan, maar als de prompt gedrag specificeert dat statistisch zeldzaam is in de trainingsgegevens, dan zal de prior zich herhalen. Dit is geen fout van de prompt-techniek; het is een gevolg van hoe voorwaardelijke verdelingen werken.
RLHF leert een beloningsmodel van menselijke voorkeursgegevens en gebruikt dit om het basismodel te verfijnen. Het beloningsmodel is zelf een geleerde functie, onderworpen aan dezelfde verdelingsbeperkingen als het basismodel. Als de voorkeursgegevens het domein in kwestie niet voldoende bestrijken - als de annotators die de outputs beoordelen bijvoorbeeld geen domeinexpertise hebben in Anglicaanse liturgie of Maori-tikanga - zal het beloningsmodel niet straffen voor outputs die niet geschikt zijn voor het domein. Het verfijnde model kan uitgelijnd lijken op de evaluatieset terwijl het niet uitgelijnd is in precies die domeinen waar uitlijning het belangrijkst is.
Constitutionele AI definieert principes en gebruikt het model zelf om zijn output te evalueren aan de hand van deze principes. Dit is een elegante benadering, maar er zit een circulariteit in: het vermogen van het model om domeinspecifieke naleving te evalueren wordt begrensd door dezelfde distributieve voorkeuren die de verkeerde afstemming veroorzaken. Een model dat therapeutisch taalgebruik vervangt door theologisch taalgebruik omdat zijn trainingsdistributie het eerste bevoordeelt, zal die substitutie niet betrouwbaar detecteren wanneer het gevraagd wordt zichzelf te evalueren - omdat het de distributieve basis mist om de substitutie als een substitutie te herkennen.
Geen van deze benaderingen is zonder waarde. Ze verbeteren het gemiddelde gedrag aanzienlijk. De claim is beperkter: ze lossen het staartverdelingsprobleem niet op voor gemeenschappen waarvan de normen ondervertegenwoordigd zijn in het trainingscorpus. Voor deze gemeenschappen is de faalwijze niet incidentele slechte uitvoer; het is systematische, stille terugkeer naar distributieve voorkeuren.
De strategie van de gespecialiseerde laag
Village AI volgt een andere benadering. In plaats van te proberen een grensmodel af te stemmen door middel van trainingstijdinterventies, wordt een kleiner basismodel (8B parameters) gebruikt met domeinspecifieke lagen voor fijnafstemming.
De architectuur bestaat uit drie componenten:
Het basismodel: villageai-8b-corrected-v4. Dit is de basislaag, getraind op operationele platformkennis - hoe het Village-systeem werkt, welke functies er zijn, hoe je door de interface navigeert. Elke huurder deelt deze laag. Het biedt competente taalgeneratie voor algemene doeleinden binnen een beperkt domein.
Gespecialiseerde lagen: verfijning per producttype. Bovenop het basismodel worden domeinspecifieke verfijnde varianten getraind voor elk producttype. De eerste productiespecialisatie is villageai-8b-episcopal-v2, getraind op bisschoppelijke/Anglicaanse liturgische, pastorale en bestuurlijke inhoud. Het doel van de fijnafstemming is om de distributieprioriteiten van het model binnen het doeldomein te verschuiven - niet om kennis toe te voegen die kan worden opgehaald via RAG, maar om de standaardtaal, framing en normatieve aannames van het model te veranderen.
**Inhoud van individuele gemeenschappen - hun bulletins, verhalen, bestuursdocumenten - wordt niet in het model opgenomen. Deze wordt tijdens de inferenties opgehaald via vectorzoeken (Qdrant) en als context aangeboden. Dit scheidt het linguïstische gedrag van het model (gevormd door fijnafstemming) van de feitelijke inhoud waarnaar het verwijst (opgehaald uit het eigen corpus van de gemeenschap).
Het onderscheid tussen finetuning en RAG is architecturaal belangrijk. Fine-tuning verschuift de voorkeuren van het model - het standaard vocabulaire, de kaderstellende aannames, het normatieve register. RAG zorgt voor een feitelijke basis. De twee mechanismen richten zich op verschillende faalwijzen: fine-tuning pakt distributionele bias aan (het model gebruikt het verkeerde register), terwijl RAG hallucinatie aanpakt (het model verzint feiten).
De afweging: vermogen versus controleerbaarheid
Deze benadering gaat gepaard met een bewuste afweging die duidelijk moet worden gemaakt.
Een 8B parametermodel kan niet tippen aan een 700B+ grensmodel voor algemene bekwaamheid. Het produceert minder vloeiend proza over onderwerpen die buiten het domein vallen. Het heeft een kleiner effectief contextvenster. Het is minder goed in complexe redeneringen in meerdere stappen. Het kan geen afbeeldingen genereren, geen code schrijven in obscure talen en geen breed filosofisch discours voeren met de mogelijkheden van een grensverleggend systeem.
Wat het in ruil biedt:
Verifieerbaarheid. De output van het model kan gecontroleerd worden aan de hand van een begrensd broncorpus. Wanneer de Guardian Agent architectuur (beschreven in artikel 3) de cosinusovereenkomst berekent tussen de antwoordinbedding van het model en de inbeddingen van brondocumenten, is het corpus klein genoeg om verificatie mogelijk te maken. Het verifiëren van het antwoord van een grensverleggend model tegen "het internet" is niet uitvoerbaar.
controleerbaarheid. De afstemmingsgegevens van het model zijn bekend en gecontroleerd. De distributieprioriteiten die worden geïntroduceerd door fine-tuning zijn in principe controleerbaar - men kan het trainingscorpus onderzoeken en begrijpen waarom het model standaard een bepaalde taal gebruikt. Dit is aanzienlijk moeilijker met een model dat getraind is op biljoenen tokens van webdata.
**Het model draait op gecontroleerde hardware - een AMD RX 7900 XTX GPU die toegankelijk is via WireGuard VPN, met CPU fallback op een 3B gedegradeerd model voor beschikbaarheid. Geen enkel inferentieverzoek verlaat de infrastructuur van de operator. Er wordt geen prompt of antwoord gelogd door een API-provider van een derde partij.
**Binnen het doeldomein liggen de prioriteitsverdeling van het gespecialiseerde model dichter bij de werkelijke normen van de gemeenschap dan de prioriteitsverdeling van een grensmodel. De bisschoppelijke specialisatie gebruikt resurrectietaal, geen therapeutische taal, als standaardregister voor rouwcontexten - omdat dat is wat de afstemmingsgegevens bevatten.
Het offer is echt. De winst is reëel. Of de afweging gepast is, hangt af van de inzetcontext. Voor een gemeenschap die een algemene intellectuele metgezel nodig heeft, is dit systeem ontoereikend. Voor een gemeenschap die een domeingetrouwe assistent nodig heeft waarvan de output geverifieerd kan worden aan de hand van zijn eigen gegevens, kan de afweging gunstig zijn.
De inbeddingspijplijn
De vectorzoekcomponent verdient een korte technische beschrijving.
De inhoud van de gemeenschap wordt verwerkt door een inbeddingspijplijn (EmbeddingService) die vectorvoorstellingen genereert die zijn opgeslagen in Qdrant. Op het moment van de zoekopdracht wordt de invoer van de gebruiker ingesloten met behulp van hetzelfde model en met cosine similarity search worden de meest relevante brondocumenten uit het corpus van de community opgehaald.
Deze opgehaalde documenten dienen twee doelen: ze bieden feitelijke context voor het antwoord van het model (standaard RAG), en ze bieden het referentiecorpus waarmee het Guardian Agents het antwoord verifieert (beschreven in artikel 3). Dezelfde inbeddingsruimte wordt gebruikt voor zowel het ophalen als de verificatie, wat een coherentievoordeel oplevert - de verificatie werkt in dezelfde representatieve ruimte als het ophalen - maar ook een potentiële kwetsbaarheid: systematische vertekeningen in het inbeddingsmodel zouden zowel het ophalen als de verificatie tegelijkertijd beïnvloeden.
We merken dit op als een onopgeloste beperking. Het inbeddingsmodel is een gedeelde afhankelijkheid en de faalwijzen ervan kunnen gecorreleerd zijn met de faalwijzen van het opwekkingsmodel op manieren die moeilijk te detecteren zijn vanuit het systeem.
Dit is artikel 2 van 5 in de serie "Architectural AI Governance at Community Scale". Voor de volledige Guardian Agents architectuur, bezoek Village AI on Agentic Governance.
Vorige: Wat AI is - en waar het afstemmingsprobleem eigenlijk zit Volgende: Waarom Trainingstijdbeheer faalt - Architecturale beperkingen als alternatief