🎓 Academia Edition

What AI Is

Nederlands

Wat AI is, wat het niet is en wat nog onzeker is


Serie: Community-Scale AI Governance - Een onderzoeksperspectief op het Village Platform (Artikel 1 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0 International


Statistische voorspelling op schaal

Het kernmechanisme van hedendaagse grote taalmodellen (LLM's) is voorspelling van volgende tokens. Gegeven een reeks tokens genereert het model een waarschijnlijkheidsverdeling over mogelijke vervolgstappen, op basis van patronen die zijn geëxtraheerd uit een trainingscorpus van aanzienlijke omvang - meestal miljarden documenten verspreid over meerdere domeinen, talen en registers.

Dit mechanisme levert vaak bruikbare resultaten op: samenhangend proza, competente samenvattingen, plausibele antwoorden op feitelijke vragen en functionele code. Het praktische nut staat niet ter discussie.

Wat wel ter discussie staat - en wat belangrijk is voor het bestuur - is de aard van het proces dat deze outputs produceert en, bijgevolg, hoeveel vertrouwen erin kan worden gesteld.

De redeneervraag: Een open empirisch probleem

Vroege karakteriseringen van LLM's als "stochastische papegaaien" - systemen die statistische regelmatigheden reproduceren zonder enige vorm van begrip - bevatten iets belangrijks over de fundamenten van de technologie. Naarmate de schaal van het model toenam, zijn er echter gedragingen ontstaan die niet eenvoudig te karakteriseren zijn.

Grote modellen kunnen logische gevolgtrekkingen in meerdere stappen maken, analoog redeneren in verschillende domeinen en presteren op nieuwe problemen die structureel verschillen van de trainingsvoorbeelden. Sommige onderzoekers beschrijven dit als emergente capaciteiten - eigenschappen die op schaal ontstaan zonder dat ze expliciet ontwikkeld zijn. Anderen beweren dat schijnbaar redeneren een verfijnde vorm van patrooninterpolatie is die alleen maar op redeneren lijkt wanneer het geëvalueerd wordt door menselijke waarnemers die geneigd zijn om begrip toe te schrijven.

Het empirisch bewijs is op dit moment onvoldoende om deze vraag op te lossen. Verschillende observaties bemoeilijken elke zelfverzekerde positie:

Voor governance doeleinden is de pragmatische implicatie de volgende: men kan er niet veilig van uitgaan dat een LLM correct redeneert, noch kan men de output ervan als onbetrouwbaar afdoen. Het systeem bevindt zich op een ongemakkelijke middenweg waar uitkomsten vaak nuttig zijn, soms fout, en niet betrouwbaar van elkaar te onderscheiden zijn zonder externe verificatie.

Nieuwheid en synthese

Een verwante vraag is of LLM's echt nieuwe outputs kunnen produceren. De sterke bewering - dat modellen alleen recombinaties van trainingsgegevens genereren - is in enge zin correct en in grote lijnen misleidend.

Neem een model dat teksten over polycentrische bestuurstheorie, organisatiegedrag en gemeenschapsinformatica als afzonderlijke werkstukken heeft geabsorbeerd. Wanneer het op de juiste manier wordt gevraagd, kan het verbanden leggen tussen deze domeinen die geen enkele individuele onderzoeker heeft gelegd, omdat geen enkele individuele onderzoeker dezelfde brede blootstelling heeft. De samenstellende ideeën zijn niet nieuw. De synthese kan echter wel nieuw zijn voor een bepaalde lezer - en kan echte structurele parallellen identificeren die onderzoek rechtvaardigen.

Dit is niet gelijk aan de nieuwheid van primair onderzoek. Het model heeft geen toegang tot empirische gegevens waarop het niet is getraind, geen capaciteit voor experimenteel ontwerp en geen mogelijkheid om te evalueren of de gesynthetiseerde verbanden standhouden onder nauwkeurig onderzoek. De synthese is een hypothesegenerator, geen hypothesevalidator. Maar het genereren van hypotheses heeft waarde, op voorwaarde dat het niet wordt verward met het bevestigen van hypotheses.

Voor onderzoekers die AI-systemen evalueren, is de implicatie dat LLM-resultaten nuttig kunnen zijn als startpunt voor literatuuronderzoek, domeinoverschrijdend onderzoek en identificatie van structurele analogieën - maar ze vereisen hetzelfde kritische onderzoek dat men zou toepassen op elke niet-geverifieerde bron.

Trainingsgegevens als wereldbeeld

Elke LLM erft de statistische verdeling van zijn trainingscorpus. Dit is geen corrigeerbare afwijking - het is een structurele eigenschap van de technologie.

Een model dat voornamelijk is getraind op Engelstalige, commercieel georiënteerde, westerse internetcontent zal resultaten produceren die de aannames, het kader en de prioriteiten van dat corpus weerspiegelen. Wanneer het model wordt gevraagd om onderwerpen te behandelen waar de trainingsgegevens schaars zijn - inheemse bestuurstradities, liturgische taal, orale cultuur, besluitvorming in kleine gemeenschappen - zal het model eerder terugvallen op statistisch dominante patronen dan de kloof te erkennen.

Dit heeft directe gevolgen voor het gebruik in een specifieke gemeenschapscontext. Een model dat gevraagd wordt om inhoud te genereren voor een onderzoeksgroep die gemeentelijk bestuur bestudeert, zal standaard de taal van het bedrijfsmanagement gebruiken - niet omdat het de alternatieven heeft geëvalueerd, maar omdat de taal van het bedrijfsmanagement overheerst in de trainingsgegevens. De substitutie is stil: het model geeft niet aan dat het buiten zijn competentiedomein opereert.

Dit fenomeen - dat in een bestuurlijke context distributional drift zou kunnen worden genoemd - is goed gedocumenteerd, maar niet goed opgelost. Technieken zoals fine-tuning, retrieval-augmented generation (RAG) en system prompting kunnen het effect verzachten maar niet elimineren. De resterende vertekening van het basismodel blijft bestaan, vooral bij nieuwe of complexe zoekopdrachten waarbij het signaal van de fijnafstemming zwakker is dan de basisverdeling.

Implicaties voor governance-onderzoek

De hierboven beschreven kenmerken - bruikbare maar onbetrouwbare output, stille distributievertekening, onzekere redeneercapaciteit - definiëren samen de bestuurlijke uitdaging.

Een AI-systeem dat er af en toe naast zit, is een kwaliteitsgarantieprobleem. Een AI-systeem dat er af en toe naast zit op een manier die stilzwijgend het ene waardenkader vervangt door een ander, is een bestuursprobleem. Het onderscheid is belangrijk omdat het eerste kan worden aangepakt door fouten te controleren, terwijl het tweede structurele mechanismen vereist die afwijkende waarden detecteren, niet alleen feitelijke fouten.

Dit is het probleem dat het Tractatus raamwerk wil aanpakken. Of dit lukt is een empirische vraag die in volgende artikelen wordt onderzocht. Wat we hier kunnen zeggen is dat het probleem reëel en goed gekarakteriseerd is en dat het niet adequaat wordt aangepakt door de beleidsgebaseerde benaderingen die momenteel het AI-governancediscours domineren.

Wat dit artikel niet beweert

Dit artikel beweert niet dat LLM's niet in staat zijn om te redeneren - het bewijs is onvoldoende voor die conclusie. Er wordt niet beweerd dat LLM's kunnen redeneren - het bewijs is al even ontoereikend. Er wordt niet beweerd dat distributionele bias onoplosbaar is - alleen dat de huidige beperkingstechnieken gedeeltelijk zijn. En er wordt niet beweerd dat AI-governance onmogelijk is - alleen dat de governance-uitdaging structureler is dan algemeen wordt erkend.

Het volgende artikel onderzoekt de specifieke structurele verschillen tussen commerciële AI-platforms en door de gemeenschap bestuurde AI-systemen, en analyseert de afwegingen die daarbij gemaakt moeten worden.


Dit is artikel 1 van 5 in de serie "Community-Scale AI Governance". Ga voor de volledige technische architectuur naar Village AI - Agentic Governance.

Volgende: Platform-AI vs. AI op gemeenschapsniveau - Een structurele analyse

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.