Pourquoi les règles et la formation ne suffisent pas - Le défi de la gouvernance
Series: To Hapori, To AI - Digital Sovereignty for Indigenous Communities (Article 3 of 5) Author: My Digital Sovereignty Ltd Date: Mars 2026 Licence: CC BY 4.0 International
Le Mihi qui n'était pas
Avant d'aborder la philosophie de la gouvernance, commençons par l'histoire d'un mihi.
Une kaumatua se prépare pour un tangi. Elle est fatiguée - la semaine a été longue et il y a beaucoup de choses à coordonner. Elle demande à un système d'intelligence artificielle de l'aider à rédiger un mihi whakatau, un discours de salutation approprié à l'occasion. Elle est précise : elle veut le langage de whakapapa, la reconnaissance des personnes décédées, le lien entre les vivants et les morts qui est au cœur du tangihanga.
L'IA produit un discours magnifiquement écrit. Il est chaleureux, professionnel et plein de compassion. Il parle de "célébrer une vie bien vécue", de "trouver la force dans les souvenirs", du "chemin de guérison à parcourir" et d'"honorer leur héritage" Il se lit bien. Elle semble bienveillante. Et c'est tout à fait faux.
Le whanau n'a pas besoin de célébrer une vie bien vécue. Ils ont besoin d'entendre les paroles de whakapapa - les lignes de descendance qui relient le défunt aux vivants et à ceux qui l'ont précédé. Ils n'ont pas besoin d'un voyage de guérison. Ils ont besoin du karanga, du tangi, de la séquence appropriée des rites qui ont permis à leur peuple de traverser la mort depuis des générations. Le kaumatua a demandé tikanga, et l'IA lui a donné des conseils occidentaux sur le deuil - parce que ses données de formation contiennent un millier de guides sur le deuil provenant de sites web de conseils pour chaque personne qui sait ce qu'est un tangi.
L'IA n'a pas refusé l'instruction du kaumatua. Elle n'a pas dit "Je ne connais pas votre tradition" Elle a simplement remplacé ce qu'elle demandait par ce qui était statistiquement plus courant dans ses données d'apprentissage. La substitution était silencieuse. Si la kaumatua était plus fatiguée que d'habitude, ou moins expérimentée, ou si elle travaillait sous la pression du temps, elle ne l'aurait peut-être pas remarqué. Le mihi aurait été prononcé et le whanau aurait été réconforté par la mauvaise tradition - formulée de manière professionnelle, sincère et culturellement vide.
Votre téléphone corrige automatiquement les mots. Vous voyez le soulignement rouge et vous le corrigez. L'IA autocorrige les valeurs. Et il n'y a pas de soulignement.
Quand les modèles l'emportent sur Tikanga
Le mihi n'est pas un cas isolé. Le même mécanisme est à l'œuvre dans toutes les conversations sur l'IA.
Lorsqu'un membre du whanau demande à un système d'IA de le conseiller sur un conflit familial, le système adopte par défaut le langage de la thérapie individuelle - formation à l'affirmation de soi, fixation de limites, soins personnels - parce que c'est ce qui domine ses données d'apprentissage. Il ne fait pas appel aux concepts de whanaungatanga, d'utu (réciprocité et équilibre), ni à la compréhension du fait que dans un système de parenté, la résolution d'un conflit n'est pas une question de résultats individuels, mais de rétablissement de l'équilibre du collectif.
Lorsqu'un chef de communauté demande à l'IA de l'aider à préparer une réunion importante ( hui), l'IA se contente de gérer les réunions d'entreprise (ordres du jour, actions à entreprendre, engagement des parties prenantes) parce que la correspondance relative aux réunions d'entreprise est largement supérieure à la correspondance relative à la gouvernance indigène dans ses données d'apprentissage. Il ne comprend pas qu'une hui n'est pas une réunion. Une réunion hui a son propre tikanga, ses propres protocoles pour savoir qui parle et quand, son propre rythme qui sert des objectifs qu'un agenda d'entreprise ne peut pas comprendre.
Lorsqu'une communauté demande à l'IA de l'aider à soumettre une demande d'autorisation d'exploitation de ressources, elle utilise par défaut le langage standard de la planification. Elle ne comprend pas le concept de kaitiakitanga - que la relation de la communauté avec la terre n'est pas une relation de propriété ou d'intérêt économique, mais de tutelle à travers les générations.
L'IA n'est pas hostile au savoir indigène. Elle ne les connaît tout simplement pas. Elle sait ce qui est statistiquement courant, et ce qui est statistiquement courant est très majoritairement occidental. Pour les communautés autochtones, il ne s'agit pas d'une lacune technique. Il s'agit de la continuation numérique d'un schéma qui a commencé avec la colonisation : le remplacement des systèmes de connaissances indigènes par des cadres occidentaux, effectué si facilement que de nombreuses personnes ne le remarquent pas.
C'est le problème de la gouvernance. Ce n'est pas de la malveillance. Pas l'incompétence. Il s'agit d'un biais structurel qui opère silencieusement.
Pourquoi plus de règles ne résoudront pas le problème
L'instinct de la plupart des organisations, lorsqu'elles sont confrontées à des risques liés à l'IA, est de rédiger des politiques. Des politiques d'utilisation acceptable. Lignes directrices en matière d'éthique de l'IA. Conditions de service. Cadres d'IA responsable.
Ces documents ne sont pas inutiles, mais ils ont une limite fondamentale : ils dépendent du système d'IA pour les respecter.
Un système d'IA ne lit pas votre document de politique et ne décide pas de s'y conformer. Il génère des réponses basées sur des modèles statistiques dans ses données d'apprentissage. Si ces modèles entrent en conflit avec votre politique, les modèles l'emportent - non pas parce que l'IA est rebelle, mais parce qu'elle ne comprend pas les politiques. Elle comprend les modèles.
Il est possible d'affiner un modèle, c'est-à-dire d'ajuster sa formation pour mettre l'accent sur certains comportements. Cela est utile, mais ne résout pas le problème sous-jacent. Le réglage fin ajoute de nouveaux modèles à ceux qui existent déjà. Sous la pression, dans des circonstances inhabituelles ou face à des questions inédites, les anciens schémas se réaffirment. Le terme technique est "oubli catastrophique", mais la version en langage clair est plus simple : l'entraînement s'épuise.
Rédiger une politique qui dit "Notre IA respectera la communauté tikanga", c'est comme rédiger une politique qui dit "Notre rivière ne sera pas inondée" La rivière ne lit pas les politiques. Si l'on veut prévenir les inondations, il faut construire des barrages, c'est-à-dire des interventions structurelles qui fonctionnent indépendamment des intentions de la rivière.
La gouvernance de l'IA requiert la même approche. Il ne s'agit pas de règles que l'IA est censée suivre, mais de structures qui fonctionnent indépendamment de l'IA, en contrôlant son comportement de l'extérieur.
Ce que le tikanga nous apprend sur la gouvernance
L'idée que certaines décisions ne peuvent être réduites à des règles n'est pas nouvelle. Elle est ancienne et les traditions de gouvernance indigènes l'ont comprise depuis des siècles.
Le Tikanga Maori n'est pas un manuel de règles. C'est un système vivant de protocoles, de valeurs et de pratiques qui guide le comportement dans un contexte relationnel. L'action correcte dans une situation donnée ne dépend pas d'une règle écrite mais des relations impliquées, du contexte, des précédents et du mana des personnes présentes. Un kaumatua qui rend un jugement sur le site hui n'applique pas une formule, il exerce la sagesse accumulée tout au long de sa vie au sein d'une communauté spécifique.
C'est précisément le type de jugement que l'IA ne peut pas réaliser. Un système formé sur des modèles statistiques ne peut pas comprendre le mana, ne peut pas peser les relations, ne peut pas sentir le tono (l'appel, l'attraction) d'une situation. Il peut traiter l'information, mais il ne peut pas exercer rangatiratanga - l'autorité d'autodétermination qui découle de l'intégration dans une communauté et de la responsabilité envers cette communauté.
Le philosophe Ludwig Wittgenstein a passé sa carrière à explorer la frontière entre ce qui peut être énoncé avec précision et ce qui se situe au-delà de l'énoncé précis. Sa conclusion, à savoir que "lorsqu'on ne peut pas parler, il faut se taire", correspond directement à la distinction entre les questions que l'IA peut aider à résoudre et celles qu'elle ne peut pas résoudre. la question "Quand est le prochain hui?" a une réponse précise qu'une IA peut trouver. la question "Comment devons-nous aborder ce korero avec le hapu voisin ?" implique un jugement, des relations et tikanga qui résistent à un traitement systématique.
Le philosophe politique Isaiah Berlin a affirmé que certaines valeurs humaines sont véritablement incompatibles - liberté et égalité, tradition et progrès, conscience individuelle et harmonie communautaire. Aucune formule ne permet de résoudre ces tensions. Elles requièrent un jugement humain permanent, des négociations et le type de sagesse pratique que les communautés développent au fil des générations.
Les traditions autochtones en matière de gouvernance ont adopté ce point de vue depuis bien plus longtemps que la philosophie occidentale ne l'a formulé. Le concept de kaitiakitanga contient déjà la reconnaissance du fait que la tutelle implique un jugement permanent, et non des règles fixes. La pratique du whakawhiti korero (échange de propos) sur le site hui incarne déjà la compréhension du fait que la sagesse collective émerge d'un dialogue structuré, et non d'une optimisation.
Tout cadre de gouvernance de l'IA qui prétend pouvoir systématiser ces jugements ne gouverne pas - il colonise. Encore une fois.
Comment le village gouverne structurellement l'IA
Village ne se contente pas de dire à l'IA de se comporter. Il intègre la gouvernance dans l'architecture - des structures qui fonctionnent indépendamment de l'IA et qui ne peuvent pas être supplantées par elle.
L'applicateur de limites empêche l'IA de prendre des décisions relatives aux valeurs. Lorsqu'une question implique des protocoles culturels, des jugements éthiques ou un contexte relationnel, le système s'arrête et transmet la question à un humain - votre modérateur, votre kaumatua, votre runanga. L'IA ne peut pas outrepasser cette limite, car elle échappe à son contrôle.
Le système de persistance des instructions stocke les instructions explicites de votre communauté dans un système distinct que l'IA ne peut pas modifier. Lorsque l'IA génère une réponse, celle-ci est comparée aux instructions stockées. Si la réponse contredit une instruction, c'est cette dernière qui prévaut - par défaut, indépendamment de ce que suggèrent les modèles d'entraînement de l'IA.
Le validateur de références croisées vérifie les actions proposées par l'IA par rapport aux dossiers réels de votre collectivité. Il ne demande pas à l'IA si sa réponse est correcte - ce serait demander au système de se vérifier lui-même. Il utilise des mesures mathématiques, fonctionnant d'une manière fondamentalement différente de l'IA, pour déterminer si la réponse est fondée sur le contenu réel de votre collectivité.
Le moniteur de pression contextuelle surveille les conditions de fonctionnement dégradées, c'est-à-dire les situations dans lesquelles l'intelligence artificielle est soumise à des contraintes, traite des demandes complexes ou est confrontée à des questions inédites. Lorsqu'il détecte ces conditions, il augmente l'intensité de la vérification. Plus la question est difficile, plus la réponse est examinée minutieusement.
Il ne s'agit pas de politiques. Ce sont des structures. Elles fonctionnent, que l'IA soit d'accord ou non, de la même manière qu'un banc d'arrêt fonctionne, que la rivière soit d'accord ou non.
La différence entre aspiration et architecture
De nombreuses organisations publient des déclarations d'éthique en matière d'IA. Village ne s'appuie pas sur des déclarations éthiques. Il s'appuie sur des contraintes architecturales qui renforcent la gouvernance de manière structurelle.
La distinction est importante parce que l'aspiration est ce que vous espérez voir se produire. L'architecture est ce qui se produit réellement. Votre communauté ne s'appuie pas sur l'espoir que les fonds seront gérés correctement - elle a besoin d'un contrôle financier adéquat, avec une obligation de rendre compte à la collectivité. C'est ce qu'on appelle la gouvernance architecturale. Le même principe s'applique à l'IA.
Le cadre Tractatus - ancré dans Te Tiriti
L'architecture de gouvernance qui sous-tend Village AI s'appelle le cadre Tractatus. Il est utile de savoir trois choses à son sujet.
Il est ouvert. L'ensemble du cadre est publié sous une licence Apache 2.0 open-source. Tout le monde peut lire le code, inspecter les règles et vérifier que la gouvernance fait ce qu'elle prétend faire. C'est tout le contraire de la gouvernance de l'IA des Big Tech, où les règles sont propriétaires et le raisonnement caché. Lorsque Google ou OpenAI vous disent que leur IA est "alignée sur les valeurs humaines", vous n'avez aucun moyen de vérifier. Avec Tractatus, vous pouvez lire chaque ligne.
**Chaque décision de gouvernance est enregistrée. Lorsque le responsable de l'application des limites empêche l'IA de prendre une décision relative aux valeurs, cet événement est enregistré. Lorsque le validateur de références croisées détecte une anomalie, celle-ci est enregistrée. Vos modérateurs peuvent voir exactement ce que le système de gouvernance a fait et pourquoi. Il n'y a pas de couche cachée où les décisions sont prises sans responsabilité.
- Te Tiriti o Waitangi*Le modèle de partenariat du cadre Tractatus n'est pas un cadre générique d'"engagement des parties prenantes" emprunté à la gouvernance d'entreprise. Il s'appuie explicitement sur les principes de Te Tiriti, en particulier sur la garantie de l'article 2, qui stipule que les autorités locales ont le pouvoir de prendre des décisions en toute connaissance de cause tino rangatiratangataonga(Dans le contexte de la gouvernance de l'IA, cela signifie que les communautés conservent la pleine autorité sur leurs connaissances, leurs données et les règles qui régissent la manière dont l'IA interagit avec ces deux éléments. Le cadre n'accorde pas cette autorité - il reconnaît que l'autorité existe déjà et met en place une architecture pour la faire respecter.
Cet ancrage dans Te Tiriti est publié dans le cadre open-source à l'adresse suivante : agenticgovernance.digital. Il ne s'agit pas d'une revendication marketing, mais d'un engagement architectural que tout le monde peut inspecter, critiquer et rendre la plateforme responsable.
Nous reconnaissons que l'ancrage d'un cadre technologique dans Te Tiriti comporte des obligations qui vont au-delà du code. C'est aux communautés maories de juger si Village remplit ces obligations, et non à la plateforme de l'affirmer.
Dans le prochain article, nous verrons ce que Village AI fait aujourd'hui dans la pratique - ce qu'il peut faire pour aider votre communauté, comment les préjugés sont pris en compte dans le système de vocabulaire et ce qui reste à faire.
Ceci est l'article 3 sur 5 de la série "To Hapori, To AI". Pour l'architecture de gouvernance complète, visitez Village AI on Agentic Governance.
Précédent : Big Tech AI vs. Your Community's AI - Why the Difference Matters Suivant : Ce qui se passe dans le village aujourd'hui