Wat AI eigenlijk is (en wat het niet is)
Serie: Uw natuurbeschermingsgroep, uw AI - Inzicht in Village AI voor milieuorganisaties (Artikel 1 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0 International
Een machine die uw zinnen afmaakt
Je hebt mensen waarschijnlijk horen zeggen dat kunstmatige intelligentie alles gaat veranderen. Het kan ook zijn dat je mensen hebt horen zeggen dat het slechts een rage is, of dat het niets echt nieuws kan doen. Beide standpunten slaan de plank mis en als je begrijpt waarom, kun je betere beslissingen nemen voor je organisatie.
Hier is de duidelijkste beschrijving van wat AI vandaag doet: het voorspelt welk woord de volgende is.
Wanneer je een bericht typt in ChatGPT of een vraag stelt aan Siri, denkt het systeem niet na over je vraag zoals jij of je coördinator dat zou doen. Het doet iets veel mechanischer. Het heeft miljarden pagina's tekst te zien gekregen - boeken, websites, gesprekken, wetenschappelijke artikelen, juridische documenten, recepten, medische artikelen, argumenten op sociale media - en uit al dat lezen heeft het patronen geleerd. Als je het een vraag stelt, genereert het een antwoord door woord voor woord te voorspellen hoe een plausibel antwoord eruit ziet op basis van alles wat het eerder heeft gezien.
Dit is echt nuttig. Een systeem dat de patronen van miljarden pagina's tekst heeft geabsorbeerd, kan je helpen bij het opstellen van een veldrapport, het samenvatten van een lange monitoringdataset, het beantwoorden van een feitelijke vraag of het geven van suggesties voor het formuleren van een subsidieaanvraag. Dit zijn echte mogelijkheden en ze besparen echte tijd.
Maar het is geen denken. Het is geen begrijpen. Het is patroonherkenning op een buitengewone schaal.
AI kan niets nieuws doen - Het hangt ervan af wat je met nieuw bedoelt
Mensen die AI afwijzen door te zeggen dat het niets origineels kan maken, doen een bewering die eng waar en breed misleidend is.
Een taalmodel kan niet voortkomen uit ervaring. Het heeft nog nooit bij zonsopgang in een wetland gestaan om waadvogels te tellen. Het heeft nooit het gewicht gevoeld van een beslissing over het al dan niet ingrijpen in een afnemende populatie. Het kan niet begrijpen waarom een dataset van dertig jaar broedgegevens er toe doet - het kan alleen patronen reproduceren die statistisch gezien op begrip lijken. In die zin is alles wat het produceert een recombinatie van materiaal dat het tijdens de training heeft opgenomen.
Maar bedenk eens wat "recombinatie" eigenlijk betekent op deze schaal.
Geen enkele ecoloog heeft elk peer-reviewed artikel over de connectiviteit van habitats gelezen, elk rapport over vrijwilligersmonitoring van de afgelopen honderd jaar, elk stuk wetgeving over beschermde gebieden en elk beheerplan van elke natuurbeschermingsorganisatie in Europa. De AI is getraind op een corpus dat veel van deze bronnen bevat. Als de AI een verband legt tussen de polycentrische bestuurstheorie en op gemeenschappen gebaseerd beheer van natuurlijke hulpbronnen, is dat verband echt nieuw voor ieder individueel mens, ook al bestonden beide ideeën al afzonderlijk. Als het patronen synthetiseert in domeinen die geen enkel mens samen heeft bestudeerd, is de synthese zelf een soort nieuwigheid - niet de nieuwigheid van doorleefde ervaring, maar de nieuwigheid van combinatie op een schaal die geen mens kan evenaren.
Een veldecoloog die het werk van Ostrom over commons governance heeft gelezen, maar niet de laatste literatuur over teledetectie, zou de synthese van de AI echt verhelderend vinden. Een specialist in teledetectie die Ostrom niet heeft gelezen, zou dezelfde synthese verhelderend vinden vanuit de andere richting. De atomen zijn niet nieuw, maar de moleculen wel.
Dus "AI kan niets nieuws doen" is waar op het niveau van de oorsprong en onjuist op het niveau van de synthese. Beide dingen zijn van belang en om serieus met deze technologie om te gaan, moeten we ze allebei vasthouden.
Kan AI echt redeneren?
Er is een diepere vraag die onderzoekers actief onderzoeken en het duidelijke antwoord is: we weten het nog niet.
Toen vroege AI-systemen vloeiende tekst produceerden, was het redelijk om ze te beschrijven als geavanceerde patroonmatching. Maar naarmate deze systemen groter en capabeler werden, gebeurde er iets onverwachts. Ze hebben interne structuren ontwikkeld - circuits, zo je wilt - die verrassend veel lijken op redeneren. Niet identiek aan menselijk redeneren, maar ook niet eenvoudigweg ophalen.
Onderzoekers hebben ontdekt dat grote taalmodellen problemen kunnen oplossen waarop ze nooit expliciet zijn getraind. Ze kunnen ketens van logica volgen over meerdere stappen. Ze kunnen analogieën trekken tussen domeinen. Sommige onderzoekers omschrijven deze capaciteiten voorzichtig als emergent - wat betekent dat ze op schaal verschenen zonder specifiek te zijn ontworpen.
Of dit echt redeneren is of geavanceerde patroonmatching die redeneren nabootst, is een open vraag. Het kan uiteindelijk eerder een filosofisch dan een empirisch onderscheid zijn. Als een systeem het juiste antwoord produceert door een proces dat op redeneren lijkt, op welk punt houdt het onderscheid tussen "echt redeneren" en "op redeneren gelijkend gedrag" dan praktisch op van belang te zijn?
Het onderzoek is echt niet overtuigend. Iedereen die je vertelt dat AI zeker wel of zeker niet kan redeneren, overdrijft wat het bewijs ondersteunt.
Wat we wel kunnen zeggen is dit: het traject is steil. Vijf jaar geleden konden deze systemen nauwelijks een samenhangende alinea aan elkaar rijgen. Vandaag kunnen ze essays schrijven, slagen voor juridische examens, computercode genereren en gesprekken voeren die voor veel mensen niet te onderscheiden zijn van een gesprek met een mens. Over vijf jaar zullen hun mogelijkheden weer aanzienlijk groter zijn.
Waarom dit nu van belang is
Niemand weet met zekerheid wat er gebeurt als een AI-systeem ooit iets ontwikkelt dat lijkt op zijn eigen intentie - zijn eigen doelen en prioriteiten die misschien niet overeenkomen met de onze. We zijn waarschijnlijk nog ver verwijderd van die drempel. Maar de architectuur die we nu bouwen, de gewoonten van bestuur die we vandaag vaststellen, zullen bepalen of we voorbereid zijn wanneer dat moment aanbreekt of dat we te laat ontdekken dat we de controle ongemerkt hebben overgedragen.
Dit is geen science fiction. Het is een eenvoudige observatie over institutionele paraatheid. Je natuurbeschermingsgroep heeft een grondwet. Je bestuur heeft een reglement. Je regionale netwerk heeft operationele overeenkomsten. Deze bestaan niet omdat elke vergadering uitloopt op chaos, maar omdat bestuursstructuren er moeten zijn voordat ze nodig zijn, niet erna.
Hetzelfde principe geldt voor AI.
Het echte probleem: Wiens patronen?
Hier wordt het praktisch voor je organisatie.
Wanneer een groot AI-systeem wordt getraind op het internet, absorbeert het de vooroordelen, aannames en culturele standaards van het internet. Het internet is overwegend Engelstalig, westers, commercieel georiënteerd en gevormd door de waarden van Silicon Valley. Dit is geen complot - het is gewoon wat er gebeurt als je een systeem traint op gegevens die onevenredig veel één cultuur en één set prioriteiten vertegenwoordigen.
De gevolgen zijn subtiel maar reëel.
Wanneer een vrijwilliger een AI-systeem om advies vraagt over het omgaan met een moeilijke situatie met een landeigenaar, grijpt het systeem standaard naar de taal van bedrijfsonderhandelingen en conflictoplossing - omdat dat de taal is die de trainingsgegevens domineert. Het grijpt niet naar de taal van het langetermijnbeheer van land, het opbouwen van vertrouwen in de gemeenschap of het geduldige relatiebeheer dat voortkomt uit tientallen jaren werken met dezelfde boerenfamilies.
Wanneer een coördinator aan een AI-systeem vraagt om te helpen bij het samenvatten van de veldgegevens van een seizoen, kiest het systeem standaard voor het vloeiende, zelfverzekerde verhaal van een marketingrapport - omdat er in de trainingsgegevens veel meer gepolijste samenvattingen zijn dan gekwalificeerde wetenschappelijke rapporten. Het systeem signaleert van nature geen hiaten, merkt geen onzekerheden op en maakt geen onderscheid tussen bevestigde waarnemingen en voorlopige schattingen.
Het systeem staat niet vijandig tegenover je werk. Het kent je werk gewoon niet. Het weet wat statistisch gebruikelijk is, en wat statistisch gebruikelijk is, is niet het belangrijkste voor uw organisatie.
Dit is het echte probleem met AI. Niet of het kan denken. Niet of het de wereld zal overnemen. De echte vraag is: wiens patronen draagt het? En kan jouw organisatie die zelf kiezen?
Twee paden voorwaarts
Er zijn twee manieren waarop een milieuorganisatie met AI kan werken.
De eerste manier is om Big Tech AI te gebruiken - systemen zoals ChatGPT, Google Gemini of Microsoft Copilot. Deze zijn krachtig, handig en gratis of goedkoop in gebruik. Maar ze komen met voorwaarden. Je gegevens stromen naar hun servers. Je gesprekken worden onderdeel van hun systemen. Het gedrag van de AI wordt bepaald door het beleid van het bedrijf, dat zonder jouw toestemming kan veranderen. En de patronen die de AI uitdraagt - zijn standaardwaarden, zijn aannames, zijn culturele framing - worden bepaald door zijn trainingsgegevens, waar jij geen invloed op hebt.
Het tweede pad is om AI te gebruiken die je organisatie controleert. Een kleiner systeem, minder krachtig in ruwe capaciteit, maar getraind op jouw inhoud, draaiend op hardware die jij beheert, bestuurd door regels die jouw organisatie opstelt. Een systeem dat het verschil weet tussen een veldrapport en een blogpost, omdat uw organisatie het dat heeft geleerd. Een systeem waarvan de antwoorden worden gecontroleerd aan de hand van uw werkelijke records door wiskundige controleurs die onafhankelijk van de AI zelf opereren.
Dit is wat Village AI is. Het is niet het krachtigste AI-systeem dat er is. Het is ontworpen om trouw te zijn aan uw organisatie - aan uw inhoud, uw waarden en uw bestuur.
Het volgende artikel in deze serie legt uit hoe Village AI structureel verschilt van Big Tech AI, en waarom dat verschil belangrijker is dan pure kracht.
Dit is artikel 1 van 5 in de serie "Your Conservation Group, Your AI". Ga voor de volledige technische architectuur naar Village AI - Agentic Governance.
Volgende: Big Tech AI vs. Uw AI voor Behoud - Waarom het verschil van belang is