Pourquoi les règles et la formation ne suffisent pas - Le défi de la gouvernance
Series: Your Family, Your AI - Understanding Village AI for Families (Article 3 of 5) Auteur: My Digital Sovereignty Ltd Date: mars 2026 Licence: CC BY 4.0 International
The Memorial Tribute
Avant d'aborder la philosophie de la gouvernance, commençons par l'histoire d'un hommage.
Une aînée de la famille demande à un système d'intelligence artificielle de l'aider à rédiger un hommage pour la commémoration de son père. Elle est très précise : elle veut que l'hommage rende compte de ce qu'il était réellement - l'homme tranquille qui réparait les vélos de tout le monde, qui chantait faux dans la voiture, qui entretenait un jardin qui nourrissait la moitié de la rue. Elle tape soigneusement sa demande et attend.
L'IA produit un hommage magnifiquement écrit. Il est chaleureux, professionnel et plein de compassion. Il parle de "célébrer une vie bien vécue", de "tourner la page", d'"honorer son héritage" et des "souvenirs qui vous soutiendront" Cela se lit bien. Cela semble bienveillant. Et c'est tout à fait faux.
La famille n'a pas besoin de réconfort générique. Elle a besoin de son père - le vrai homme, pas un modèle. Elle n'a pas besoin de "célébrer une vie bien vécue" avec des mots qui pourraient s'appliquer à n'importe qui. Ils ont besoin d'entendre parler de la pompe à vélo, du chant déformé et des tomates qu'il faisait pousser chaque été sans faillir. La personne âgée a demandé quelque chose de personnel, et l'IA lui a donné quelque chose de générique - parce que ses données d'entraînement contiennent un millier de modèles d'éloges funèbres pour chaque éloge d'une personne réelle.
L'IA n'a pas refusé sa demande. Elle n'a pas dit "Je ne connais pas votre père" Elle a simplement remplacé ce qu'elle demandait par ce qui était statistiquement plus courant dans ses données d'apprentissage. La substitution était silencieuse. Si elle était fatiguée, pressée ou moins attentive que d'habitude, elle ne l'aurait peut-être pas remarqué. L'hommage aurait été lu lors de la cérémonie commémorative, et la famille aurait entendu des mots sur leur père qui auraient pu être ceux de n'importe qui - formulés de manière professionnelle, sincèrement intentionnés, et manquant tout ce qui comptait.
Votre téléphone corrige automatiquement les mots. Vous voyez le soulignement rouge et vous le corrigez. L'IA autocorrige les valeurs. Et il n'y a pas de soulignement.
Quand les modèles l'emportent sur ce qui compte
L'hommage commémoratif n'est pas un cas isolé. Le même mécanisme est à l'œuvre dans toutes les conversations sur l'IA.
Lorsqu'un membre de la famille demande à un système d'IA des conseils sur les soins à apporter à un parent vieillissant, le système adopte par défaut le langage des services de soins professionnels - évaluation des besoins, plans de soins, options de répit - parce que c'est ce qui domine dans ses données d'apprentissage. Il n'utilise pas le langage du devoir familial, de la prise en charge à tour de rôle, de l'entente tranquille entre frères et sœurs qui savent qu'ils seront assis ensemble à Noël pour les décennies à venir.
Lorsque quelqu'un demande à l'IA de l'aider à rédiger un message sur une question familiale délicate - un désaccord sur un héritage, une conversation difficile sur la santé d'un parent - le système adopte par défaut les modèles de communication de l'entreprise, parce que la correspondance professionnelle dépasse largement la correspondance familiale dans ses données d'apprentissage.
L'IA n'est pas hostile aux valeurs de votre famille. Elle ne les connaît tout simplement pas. Elle sait ce qui est statistiquement courant, et ce qui est statistiquement courant n'est pas ce qui importe à votre famille.
C'est là le problème de gouvernance. Pas la malveillance. Pas l'incompétence. Il s'agit d'un biais structurel qui opère silencieusement.
Pourquoi plus de règles ne résoudront pas le problème
L'instinct de la plupart des organisations, lorsqu'elles sont confrontées à des risques liés à l'IA, est de rédiger des politiques. Des politiques d'utilisation acceptable. Lignes directrices en matière d'éthique de l'IA. Conditions de service. Cadres d'IA responsable.
Ces documents ne sont pas inutiles, mais ils ont une limite fondamentale : ils dépendent du système d'IA pour les respecter.
Un système d'IA ne lit pas vos règles et ne décide pas de s'y conformer. Il génère des réponses basées sur des modèles statistiques dans ses données d'apprentissage. Si ces modèles entrent en conflit avec vos règles, les modèles l'emportent - non pas parce que l'IA est rebelle, mais parce qu'elle ne comprend pas les règles. Elle comprend les modèles.
Il est possible d'affiner un modèle, d'ajuster sa formation pour mettre l'accent sur certains comportements. Cela est utile, mais ne résout pas le problème sous-jacent. Le réglage fin ajoute de nouveaux modèles à ceux qui existent déjà. Sous la pression, dans des circonstances inhabituelles ou face à des questions nouvelles, les anciens schémas se réaffirment. Le terme technique est "oubli catastrophique", mais la version en langage clair est plus simple : l'entraînement s'épuise.
Écrire une règle qui dit "Notre IA respectera les valeurs de notre famille", c'est comme écrire une règle qui dit "Notre rivière ne sera pas en crue" La rivière ne lit pas les règles. Si vous voulez prévenir les inondations, vous devez construire des digues - des interventions structurelles qui fonctionnent indépendamment de ce que fait la rivière.
La gouvernance de l'IA nécessite la même approche. Il ne s'agit pas de règles que l'IA est censée suivre, mais de structures qui fonctionnent indépendamment de l'IA, en contrôlant son comportement de l'extérieur.
Ce que nous dit la sagesse ancestrale
L'idée que certaines décisions ne peuvent être réduites à des règles n'est pas nouvelle. Elle est ancienne.
Le philosophe Ludwig Wittgenstein a passé sa carrière à explorer la frontière entre ce qui peut être énoncé avec précision et ce qui se situe au-delà de l'énoncé précis. Sa conclusion, à savoir que "lorsqu'on ne peut pas parler, il faut se taire", s'applique directement à la gouvernance de l'IA. Une machine peut répondre à certaines questions : la question "À quelle heure commence la réunion de famille ?" a une réponse précise qu'une IA peut trouver. D'autres questions ne le peuvent pas : d'autres questions ne le peuvent pas : "Comment dois-je aborder ma sœur au sujet des soins prodigués à ma mère ?" fait appel au jugement, au contexte, aux relations et aux valeurs qui résistent à un traitement systématique.
La frontière entre ce qui peut être délégué à une machine et ce qui doit rester entre les mains des personnes est le fondement d'une bonne gouvernance de l'IA. L'erreur consiste à ne pas utiliser l'IA pour le premier type de question. L'erreur est de permettre à l'IA de répondre au second type de questions sans qu'une personne n'intervienne.
Le philosophe politique Isaiah Berlin a affirmé que certaines valeurs humaines sont véritablement incompatibles - liberté et équité, tradition et changement, souhaits individuels et harmonie familiale. Aucune formule ne permet de résoudre ces tensions. Elles requièrent un jugement humain permanent, des conversations et le type de sagesse pratique que les familles développent au fil des générations.
Les systèmes d'IA, de par leur conception, cherchent à optimiser. Ils recherchent une réponse unique. Mais lorsque des valeurs sont véritablement en conflit, il n'y a pas de réponse unique - il n'y a que la réponse que cette famille, à ce moment-là, avec ces personnes, juge la moins mauvaise. Ce jugement est intrinsèquement humain, et toute approche de gouvernance de l'IA qui prétend le contraire ne gouverne pas - elle abdique.
Les familles l'ont toujours su. La décision de savoir si grand-mère doit se rapprocher ou rester chez elle n'est pas un problème à optimiser. C'est une tension qu'il faut supporter, dont il faut discuter et avec laquelle il faut vivre. Les familles qui ont pris ces décisions depuis des générations comprennent déjà, au plus profond d'elles-mêmes, pourquoi on ne peut pas confier à l'IA les décisions relatives aux valeurs.
Comment le village gouverne structurellement l'IA
Village ne se contente pas de dire à l'IA de se comporter. Il intègre la gouvernance dans l'architecture - des structures qui fonctionnent indépendamment de l'IA et qui ne peuvent pas être supplantées par elle.
L'applicateur de limites empêche l'IA de prendre des décisions relatives aux valeurs. Lorsqu'une question concerne la vie privée, des jugements éthiques ou le contexte familial, le système s'arrête et transmet la question à une personne - votre coordinateur familial, votre aîné, la famille dans son ensemble. L'IA ne peut pas outrepasser cette limite, car elle échappe à son contrôle.
Le système de persistance des instructions stocke les instructions explicites de votre famille dans un système distinct que l'IA ne peut pas modifier. Lorsque l'IA génère une réponse, celle-ci est comparée aux instructions stockées. Si la réponse contredit une instruction, c'est cette dernière qui prévaut - par défaut, indépendamment de ce que suggèrent les schémas d'entraînement de l'IA.
Le validateur de références croisées vérifie les réponses proposées par l'IA par rapport aux dossiers de votre famille. Il ne demande pas à l'IA si sa réponse est correcte - ce serait demander au système de se vérifier lui-même. Il utilise des mesures mathématiques, fonctionnant d'une manière fondamentalement différente de l'IA, pour déterminer si la réponse est fondée sur le contenu réel de votre famille.
Le moniteur de pression contextuelle surveille les conditions de fonctionnement difficiles, c'est-à-dire les situations dans lesquelles l'intelligence artificielle est soumise à des contraintes, traite des demandes complexes ou est confrontée à des questions inédites. Lorsqu'il détecte ces conditions, il augmente l'intensité de la vérification. Plus la question est difficile, plus la réponse est examinée minutieusement.
Il ne s'agit pas de politiques. Ce sont des structures. Elles fonctionnent, que l'IA soit d'accord ou non, de la même manière qu'une digue fonctionne, que la rivière soit d'accord ou non.
La différence entre aspiration et architecture
De nombreuses organisations publient des déclarations d'éthique de l'IA. Village ne s'appuie pas sur des déclarations éthiques. Il s'appuie sur des contraintes architecturales qui renforcent la gouvernance de manière structurelle.
La distinction est importante parce que l'aspiration est ce que vous espérez voir se produire. L'architecture est ce qui se produit réellement. Votre famille ne s'appuie pas sur l'espoir que la personne qui tient les cordons de la bourse sera juste - vous en parlez, vous vous mettez d'accord, vous le dites clairement. C'est ce qu'on appelle la gouvernance pratique. Le même principe s'applique à l'IA.
Le cadre Tractatus - Transparent et ouvert
L'architecture de gouvernance qui sous-tend Village AI s'appelle le cadre Tractatus. Il est utile de savoir trois choses à son sujet.
Il est ouvert. L'ensemble du cadre est publié sous une licence open-source Apache 2.0. Tout le monde peut lire le code, inspecter les règles et vérifier que la gouvernance fait ce qu'elle prétend faire. C'est tout le contraire de la gouvernance de l'IA des Big Tech, où les règles sont propriétaires et le raisonnement caché. Lorsque Google ou OpenAI vous disent que leur IA est "alignée sur les valeurs humaines", vous n'avez aucun moyen de vérifier. Avec Tractatus, vous pouvez lire chaque ligne.
**Chaque décision de gouvernance est enregistrée. Lorsque le responsable de l'application des limites empêche l'IA de prendre une décision relative aux valeurs, cet événement est enregistré. Lorsque le validateur de références croisées détecte une anomalie, celle-ci est enregistrée. Vos coordinateurs familiaux peuvent voir exactement ce que le système de gouvernance a fait et pourquoi. Il n'y a pas de couche cachée où les décisions sont prises sans responsabilité.
**Le cadre n'est pas un ensemble de règles rigides imposées de l'extérieur. Les familles peuvent adapter la gouvernance à leurs propres priorités. Une famille qui préserve le patrimoine samoan et une famille qui documente les expériences de guerre de leurs grands-parents ont des valeurs, des sensibilités et des limites différentes. Le cadre du site Tractatus en tient compte, non pas en laissant les familles affaiblir la gouvernance, mais en les laissant définir ce que la gouvernance protège. Les valeurs de votre famille, les limites de votre famille, la façon dont votre famille fait les choses - appliquées de manière structurelle, et pas seulement documentées.
Le cadre complet, y compris les recherches qui le sous-tendent, est disponible à l'adresse suivante : agenticgovernance.digital. Il n'est pas nécessaire de le lire pour utiliser Village - la gouvernance fonctionne, que vous l'examiniez ou non. Mais si vous voulez comprendre exactement comment votre IA est gouvernée, la porte est ouverte.
Dans le prochain article, nous verrons ce que Village AI fait aujourd'hui dans la pratique - ce qu'il peut faire pour aider votre famille, comment les préjugés sont pris en compte dans le système de vocabulaire, et ce qui reste à faire.
Ceci est l'article 3 sur 5 de la série "Votre famille, votre IA". Pour obtenir l'architecture de gouvernance complète, visitez Village AI on Agentic Governance.
Précédent : Big Tech AI vs. Your Family's AI - Why the Difference Matters Suivant : Ce qui se passe dans le village aujourd'hui