🤖 AI Research Edition

Landing

Nederlands

Architecturaal AI-bestuur op communautaire schaal - Een technisch onderzoek van Village AI

Voor AI/ML-onderzoekers en veiligheidsonderzoekers


Een vijfdelige technische serie waarin een alternatieve benadering van AI-uitlijning wordt onderzocht: architecturale beperking tijdens inferentie in plaats van uitlijning via training. Geschreven voor onderzoekers die bekend zijn met RLHF, constitutionele AI, mechanistische interpreteerbaarheid en de bredere afstemmingsliteratuur.


De serie

1. Wat AI is - en waar het afstemmingsprobleem eigenlijk zit

Emergent redeneren, schaalwetten en het onderscheid tussen vermogen en beheersbaarheid. Waarom het afstemmingsprobleem zoals dat wordt ervaren door gebruikte systemen in de gemeenschap verschilt van het afstemmingsprobleem zoals dat wordt bestudeerd in het laboratorium - en waarom dat verschil van belang is.

2. Fundamentele modellen versus domeinspecifieke inferentie - een structurele analyse

Distributieverschuiving, vertekening van het basistarief en het stille substitutieprobleem. Hoe de samenstelling van trainingsgegevens het standaardgedrag bepaalt, waarom prompting en RLHF geen verdelingsprioriteiten aan de staart oplossen, en wat een Specialised Layer-strategie op een 8B-parametermodel biedt (en opoffert) in vergelijking met frontier-systemen.

3. Waarom Trainingstijdbeheer faalt - Architecturale beperkingen als alternatief

Het 27027 incident als casestudy van falende afstemming: een AI-systeem dat stilletjes therapeutische taal vervangt door theologische taal ondanks expliciete instructies. Waarom fijnafstemming, RLHF en constitutionele AI deze klasse van problemen niet oplossen. Guardian Agents als epistemische scheiding - verificatiesystemen die structureel onafhankelijk zijn van het model dat ze controleren.

4. What Is Live in Production - An Unvarnished Inventory

Het werkelijke systeem: villageai-8b-corrected-v4, gespecialiseerde laag fine-tuning, AMD RX 7900 XTX inferentie via WireGuard met CPU fallback, cosinus gelijkenis verificatie tegen brondocumenten, vier Guardian Agent lagen en een adaptieve feedbacklus. Wat werkt, wat nog onbewezen is en waar we ons bewust zijn van beperkingen.

5. Voorbij het model - Platformarchitectuur en governance-integratie

AI als één component binnen een soeverein gemeenschapsplatform. Hoe de architecturale beperkingen verder reiken dan het model, naar data-isolatie, toestemmingsarchitectuur, woordenschat-gedreven framing en gefedereerd intercommunautair bestuur. Wat deze benadering opoffert aan vermogen en wat het oplevert aan controleerbaarheid.


Voor wie is dit

Deze artikelen zijn geschreven voor onderzoekers die werken aan AI-afstemming, veiligheid, interpreteerbaarheid en governance. Er wordt uitgegaan van bekendheid met transformatorarchitecturen, fijnafstemmingsmethoden, leren van menselijke feedback en de huidige afstemmingsliteratuur.

De bijdrage is niet theoretisch. Het is een beschrijving van een geïmplementeerd systeem - operationeel sinds oktober 2025 - dat het afstemmingsprobleem op een andere manier benadert: architecturale beperking op het moment van inferentie in plaats van afstemming door training. De aanpak is jong, werkt op bescheiden schaal en is nog niet onafhankelijk geëvalueerd. We presenteren het als een case study, niet als een oplossing.

We zijn openhartig over beperkingen. Een 8B parametermodel met domeinspecialisatie kan niet tippen aan grensverleggende systemen op algemene capaciteit. De Guardian Agent architectuur voegt latentie toe. De cosinus gelijkenis verificatie is afhankelijk van de kwaliteit en dekking van het brondocument corpus. Dit zijn echte afwegingen en we bespreken ze overal.

Verder lezen


Serie: Architectonisch AI-bestuur op communautaire schaal - Een technisch onderzoek van Village AI Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0 International

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.