👥 Community Edition

Governance Challenge

Français

Pourquoi les règles et la formation ne suffisent pas - Le défi de la gouvernance


Series: Your Community, Your AI - Understanding Village AI for Community Groups (Article 3 of 5) Author: My Digital Sovereignty Ltd Date: mars 2026 Licence: CC BY 4.0 International


La lettre aux parents

Avant d'aborder la philosophie de la gouvernance, commençons par l'histoire d'une lettre.

La directrice d'une école demande à un système d'intelligence artificielle de l'aider à rédiger une lettre aux parents à propos d'un incident délicat. Elle est précise : elle veut un ton bienveillant, mesuré et ancré dans les valeurs de confiance et de responsabilité collective de l'école. Elle tape sa demande avec soin et attend.

L'IA produit une lettre bien structurée. Elle est claire, professionnelle et complète. Elle parle de "communication avec les parties prenantes", d'"atténuation des risques", de "gestion de l'impact sur la réputation" et de "respect des obligations de divulgation" Elle se lit efficacement. Il semble compétent. Et c'est tout à fait faux.

Les parents n'ont pas besoin d'une gestion des parties prenantes. Ils ont besoin d'entendre parler d'une école en laquelle ils ont confiance. Ils n'ont pas besoin d'un langage d'atténuation des risques. Ils ont besoin d'être rassurés sur le fait que leurs enfants sont en sécurité et que la communauté scolaire veille les uns sur les autres. La directrice a demandé de l'attention et de la responsabilité, et l'IA lui a donné des communications de crise d'entreprise - parce que ses données de formation contiennent un millier de manuels de relations publiques pour chaque personne qui s'exprime au nom de l'école.

L'IA n'a pas refusé les instructions de la directrice. Elle n'a pas dit "Je ne connais pas la culture de votre école" Elle a simplement remplacé ce qu'elle demandait par ce qui était statistiquement plus courant dans ses données d'apprentissage. La substitution était silencieuse. Si la directrice était fatiguée, pressée ou moins attentive que d'habitude, elle ne l'aurait peut-être pas remarqué. La lettre aurait été envoyée et les parents auraient reçu une communication de la mauvaise tradition - formulée de manière professionnelle, correctement structurée et subtilement aliénante.

Votre téléphone corrige automatiquement les mots. Vous voyez le soulignement rouge et vous le corrigez. L'IA autocorrige les valeurs. Et il n'y a pas de soulignement.

Quand les modèles l'emportent sur les valeurs

La lettre de l'école n'est pas un cas isolé. Le même mécanisme est à l'œuvre dans toutes les conversations d'IA.

Lorsqu'un membre demande à un système d'IA de le conseiller sur une situation interpersonnelle difficile au sein du groupe, le système adopte par défaut le langage de la thérapie individuelle - formation à l'affirmation de soi, définition des limites, soins personnels - parce que c'est ce qui domine dans ses données de formation. Il n'utilise pas le langage de l'accommodement mutuel, du donnant-donnant et de la sagesse pratique qui découle du fait que l'on sait que l'on travaillera aux côtés de cette personne lors de réunions pendant des années.

Lorsqu'un secrétaire de club demande à l'IA de l'aider à faire une annonce délicate aux membres, l'IA adopte le langage de la communication d'entreprise - gestion des parties prenantes, cadres de messages, points de discussion - parce que la correspondance commerciale est largement supérieure à la correspondance communautaire dans ses données de formation.

L'IA n'est pas hostile à la culture de votre groupe. Elle ne la connaît tout simplement pas. Elle sait ce qui est statistiquement courant, et ce qui est statistiquement courant n'est pas ce qui est le plus important pour votre communauté.

C'est là le problème de la gouvernance. Pas la malveillance. Pas l'incompétence. Il s'agit d'un biais structurel qui opère silencieusement.

Pourquoi plus de règles ne résoudront pas le problème

L'instinct de la plupart des organisations, lorsqu'elles sont confrontées à des risques liés à l'IA, est de rédiger des politiques. Des politiques d'utilisation acceptable. Lignes directrices en matière d'éthique de l'IA. Conditions de service. Cadres d'IA responsable.

Ces documents ne sont pas inutiles, mais ils ont une limite fondamentale : ils dépendent du système d'IA pour les respecter.

Un système d'IA ne lit pas votre document de politique et ne décide pas de s'y conformer. Il génère des réponses basées sur des modèles statistiques dans ses données d'apprentissage. Si ces modèles entrent en conflit avec votre politique, les modèles l'emportent - non pas parce que l'IA est rebelle, mais parce qu'elle ne comprend pas les politiques. Elle traite les modèles.

Il est possible d'affiner un modèle, d'ajuster sa formation pour mettre l'accent sur certains comportements. Cela est utile, mais ne résout pas le problème sous-jacent. Le réglage fin ajoute de nouveaux modèles à ceux qui existent déjà. Sous la pression, dans des circonstances inhabituelles ou face à des questions inédites, les anciens schémas se réaffirment. Le terme technique est "oubli catastrophique", mais la version en langage clair est plus simple : l'entraînement s'épuise.

Rédiger une politique qui dit "Notre IA respectera les valeurs de notre communauté", c'est comme rédiger une politique qui dit "Notre rivière ne sera pas inondée" La rivière ne lit pas les politiques. Si vous voulez prévenir les inondations, vous devez construire des digues - des interventions structurelles qui fonctionnent indépendamment de ce que fait la rivière.

La gouvernance de l'IA nécessite la même approche. Il ne s'agit pas de règles que l'IA est censée suivre, mais de structures qui fonctionnent indépendamment de l'IA, en contrôlant son comportement de l'extérieur.

Ce que les traditions de gouvernance nous apprennent

L'idée que certaines décisions ne peuvent être réduites à des règles n'est pas nouvelle. Elle est ancienne.

Le philosophe Ludwig Wittgenstein a passé sa carrière à explorer la frontière entre ce qui peut être énoncé avec précision et ce qui se situe au-delà de l'énoncé précis. Sa conclusion, à savoir que "lorsqu'on ne peut pas parler, il faut se taire", s'applique directement à la gouvernance de l'IA. Certaines questions peuvent être systématisées : la question "À quelle heure est la prochaine réunion ?" a une réponse précise qu'une IA peut chercher. D'autres questions ne le sont pas : d'autres questions ne peuvent être systématisées : "Comment dois-je aborder cette question avec le comité sans offenser personne ?" implique un jugement, un contexte, des relations et des valeurs qui résistent à un traitement systématique.

La frontière entre ce qui peut être délégué à une machine et ce qui doit rester entre les mains des humains est le fondement d'une bonne gouvernance de l'IA. L'erreur consiste à ne pas utiliser l'IA pour le premier type de question. L'erreur est de permettre à l'IA de répondre au second type de questions sans surveillance humaine.

Le philosophe politique Isaiah Berlin a affirmé que certaines valeurs humaines sont véritablement incompatibles - liberté et égalité, tradition et progrès, conscience individuelle et harmonie communautaire. Aucune formule ne permet de résoudre ces tensions. Elles requièrent un jugement humain permanent, des négociations et le type de sagesse pratique que les communautés développent au fil des générations.

Les systèmes d'IA, de par leur conception, cherchent à optimiser. Ils recherchent une réponse unique. Mais lorsque des valeurs sont véritablement en conflit, il n'y a pas de réponse unique - il n'y a que la réponse que ce groupe, à ce moment-là, avec ces personnes, juge la moins mauvaise. Ce jugement est intrinsèquement humain, et tout cadre de gouvernance de l'IA qui prétend le contraire ne gouverne pas - il abdique.

Les groupes communautaires ont leur propre version de cette idée. Tout comité qui a équilibré un budget limité en fonction de priorités concurrentes, qui a géré un désaccord entre des membres de longue date ou qui a décidé comment accueillir de nouveaux arrivants sans aliéner les membres établis, comprend déjà - par expérience pratique - pourquoi on ne peut pas confier à l'IA des décisions relatives aux valeurs.

Comment le village gouverne l'IA Structurellement

Village ne se contente pas de dire à l'IA de se comporter. Il intègre la gouvernance dans l'architecture - des structures qui fonctionnent indépendamment de l'IA et qui ne peuvent pas être supplantées par elle.

L'applicateur de limites empêche l'IA de prendre des décisions relatives aux valeurs. Lorsqu'une question implique des compromis en matière de protection de la vie privée, des jugements éthiques ou un contexte culturel, le système s'arrête et transmet la question à un humain - votre modérateur, votre président, votre comité. L'IA ne peut pas outrepasser cette limite, car elle échappe à son contrôle.

Le système de persistance des instructions stocke les instructions explicites de votre communauté dans un système distinct que l'IA ne peut pas modifier. Lorsque l'IA génère une réponse, celle-ci est comparée aux instructions stockées. Si la réponse contredit une instruction, c'est cette dernière qui prévaut - par défaut, indépendamment de ce que suggèrent les modèles d'entraînement de l'IA.

Le validateur de références croisées vérifie les actions proposées par l'IA par rapport aux dossiers réels de votre collectivité. Il ne demande pas à l'IA si sa réponse est correcte - ce serait demander au système de se vérifier lui-même. Il utilise des mesures mathématiques, fonctionnant d'une manière fondamentalement différente de l'IA, pour déterminer si la réponse est fondée sur le contenu réel de votre collectivité.

Le moniteur de pression contextuelle surveille les conditions de fonctionnement dégradées, c'est-à-dire les situations dans lesquelles l'intelligence artificielle est soumise à des contraintes, traite des demandes complexes ou est confrontée à des questions inédites. Lorsqu'il détecte ces conditions, il augmente l'intensité de la vérification. Plus la question est difficile, plus la réponse est examinée minutieusement.

Il ne s'agit pas de politiques. Ce sont des structures. Elles fonctionnent, que l'IA soit d'accord ou non, de la même manière qu'une digue fonctionne, que la rivière soit d'accord ou non.

La différence entre aspiration et architecture

De nombreuses organisations publient des déclarations d'éthique de l'IA. Village ne s'appuie pas sur des déclarations éthiques. Il s'appuie sur des contraintes architecturales qui renforcent la gouvernance de manière structurelle.

La distinction est importante parce que l'aspiration est ce que vous espérez voir se produire. L'architecture est ce qui se produit réellement. Votre groupe ne s'appuie pas sur l'espoir que le trésorier gère les fonds correctement - il exige deux signataires pour chaque chèque. Il s'agit là d'une gouvernance architecturale. Le même principe s'applique à l'IA.

Le cadre Tractatus - Transparent et ouvert

L'architecture de gouvernance qui sous-tend Village AI s'appelle le cadre Tractatus. Il est utile de savoir trois choses à son sujet.

Il est ouvert. L'ensemble du cadre est publié sous une licence open-source Apache 2.0. Tout le monde peut lire le code, inspecter les règles et vérifier que la gouvernance fait ce qu'elle prétend faire. C'est tout le contraire de la gouvernance de l'IA des Big Tech, où les règles sont propriétaires et le raisonnement caché. Lorsque Google ou OpenAI vous disent que leur IA est "alignée sur les valeurs humaines", vous n'avez aucun moyen de vérifier. Avec Tractatus, vous pouvez lire chaque ligne.

**Chaque décision de gouvernance est enregistrée. Lorsque le responsable de l'application des limites empêche l'IA de prendre une décision relative aux valeurs, cet événement est enregistré. Lorsque le validateur de références croisées détecte une anomalie, celle-ci est enregistrée. Vos modérateurs peuvent voir exactement ce que le système de gouvernance a fait et pourquoi. Il n'y a pas de couche cachée où les décisions sont prises sans responsabilité.

**Le cadre n'est pas un ensemble de règles rigides imposées de l'extérieur. Les communautés peuvent façonner la gouvernance pour qu'elle reflète leurs propres priorités. Un club sportif et une association de parents d'élèves ont des valeurs, des sensibilités et des limites différentes. Le cadre du site Tractatus en tient compte, non pas en laissant les communautés affaiblir la gouvernance, mais en les laissant définir ce que la gouvernance protège. La constitution de votre groupe, les priorités de votre groupe, les limites de votre groupe - appliquées de manière structurelle, et pas seulement documentées.

Le cadre complet, y compris les recherches qui le sous-tendent, est disponible à l'adresse suivante : agenticgovernance.digital. Il n'est pas nécessaire de le lire pour utiliser Village - la gouvernance fonctionne, que vous l'examiniez ou non. Mais si vous voulez comprendre exactement comment votre IA est gouvernée, la porte est ouverte.

Dans le prochain article, nous verrons ce que Village AI fait aujourd'hui dans la pratique - ce qu'il peut faire pour aider votre groupe, comment les préjugés sont traités par le système de vocabulaire, et ce qui est encore en cours d'élaboration.


Ceci est l'article 3 sur 5 de la série "Votre communauté, votre IA". Pour obtenir l'architecture de gouvernance complète, visitez Village AI on Agentic Governance.

Précédent : Big Tech AI vs. Your Community AI - Why the Difference Matters Suivant : Ce qui se passe dans le village aujourd'hui

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.