🌈 Indigenous Edition

Big Tech vs Community

Français

L'IA des grandes entreprises et l'IA de votre communauté : pourquoi la différence est-elle importante ?


Série: To Hapori, To AI - Digital Sovereignty for Indigenous Communities (Article 2 of 5) Author: My Digital Sovereignty Ltd Date: Mars 2026 Licence: CC BY 4.0 International


Où l'IA des grandes entreprises technologiques apprend ses bonnes manières

Imaginez que vous éleviez un enfant dans un foyer où les seuls livres sont les brochures commerciales, les arguments des médias sociaux et Wikipédia. Cet enfant s'exprimerait clairement, aurait de nombreuses lectures dans un certain sens et serait capable de produire un texte fluide sur presque n'importe quel sujet. Mais il aurait une vision particulière du monde - commercialement façonnée, consciente des controverses, confiante dans le ton, quelle que soit la profondeur. Ils sauraient comment donner l'impression de faire autorité sans être nécessairement sages.

C'est, grosso modo, la façon dont les systèmes d'IA des Big Tech sont élevés.

ChatGPT, Google Gemini et leurs homologues sont formés à partir d'énormes quantités de texte extraites d'Internet. Des milliards de pages. Le résultat est un système qui peut discuter de presque tout, mais dont les valeurs par défaut, les hypothèses et les instincts sont façonnés par ce que l'internet surreprésente.

L'internet surreprésente :

L'internet est sous-représenté :

Pour les communautés autochtones, ce déséquilibre n'est pas un inconvénient. Il s'agit de la poursuite d'un schéma antérieur à l'internet de plusieurs siècles : la marginalisation systématique des connaissances indigènes au profit des cadres occidentaux. L'internet n'a pas créé ce déséquilibre - il en a hérité, l'a amplifié et l'a encodé dans les données d'entraînement de tous les grands systèmes d'intelligence artificielle.

Lorsque votre membre whanau demande à un système d'IA de la Big Tech comment gérer une obligation familiale, il utilise le langage des limites individuelles et de l'autonomie - non pas parce qu'il l'a jugé supérieur, mais parce que c'est ce qui domine dans ses données d'apprentissage. Il ne propose pas le concept de whanaungatanga, ou la compréhension du fait que les obligations envers whanau ne sont pas des fardeaux à gérer, mais des relations à honorer. Ces modèles sont statistiquement rares dans les données à partir desquelles il a appris.

Il ne s'agit pas d'un défaut qui peut être corrigé par une meilleure incitation. Il s'agit d'un problème structurel. Le caractère du système est déterminé par son éducation, et son éducation a été l'internet.

Ce que l'expression "formé localement" signifie réellement

Village AI fonctionne différemment, et la différence ne réside pas dans le fait d'être plus petit ou moins performant. La différence réside dans l'endroit où l'IA apprend ses modèles.

Un site Village AI pour votre communauté est formé sur trois couches de contenu :

La couche de la plateforme. Il s'agit de la base - comment la plateforme du Village fonctionne, quelles sont les fonctionnalités disponibles, comment naviguer dans le système. Chaque village partage cette couche. Cela signifie que l'IA peut aider un nouveau membre du whanau à trouver son chemin, lui expliquer comment partager une histoire ou participer à un appel vidéo, sans qu'il ait besoin d'apprendre ces bases à partir de zéro.

**La couche "communauté" : c'est ce qui fait de votre Village le vôtre. L'IA apprend à partir du contenu créé par votre communauté - annonces, histoires partagées par les membres, descriptions d'événements, documents publiés par votre runanga ou votre comité. Lorsqu'un membre du whanau demande "Que s'est-il passé à hui le mois dernier ?", l'IA peut répondre à partir des archives de votre communauté, et non pas à partir d'une supposition basée sur ce à quoi hui ressemble généralement sur l'internet.

**Aucun contenu n'entre dans la formation de l'IA sans autorisation explicite. Un membre qui partage une histoire peut choisir si cette histoire est incluse dans les connaissances de l'IA. Le contenu marqué comme privé reste privé - structurellement, et pas seulement par politique. L'IA ne peut pas accéder à ce qui ne lui a jamais été donné.

Pour les communautés autochtones, cette architecture de consentement est particulièrement importante. La souveraineté des données autochtones - le principe selon lequel les peuples autochtones ont le droit de régir la collecte, la propriété et l'utilisation de leurs propres données - n'est pas une caractéristique que l'on peut ajouter après coup. Elle doit être intégrée dans les fondations. Le modèle de consentement de Village n'est pas parfait, mais il part d'un bon point de départ : les données de votre communauté appartiennent à votre communauté et aucun contenu n'est utilisé sans autorisation explicite.

Le résultat est un système qui connaît votre communauté, et non l'idée qu'Internet se fait d'une communauté autochtone. Lorsqu'il aide à rédiger une annonce, il s'appuie sur les modèles de vos communications précédentes, et non sur des modèles de bulletins d'information d'entreprise. Lorsqu'il répond à une question sur votre communauté, il le fait à partir des données de votre communauté, et non à partir d'une moyenne statistique de toutes les communautés.

Kaitiakitanga, Not Ownership

Les plateformes technologiques occidentales présentent les données en termes de propriété - qui possède les données, qui en a les droits, qui peut les vendre. Cette approche est naturelle dans une tradition fondée sur les droits de propriété.

Mais pour de nombreuses communautés indigènes, et en particulier au sein de Te Ao Maori, le concept le plus juste est le suivant kaitiakitanga - la tutelle, l'intendance. Les données concernant votre whanau, votre hapu, votre communauté ne sont pas des biens à posséder et à échanger. Il s'agit d'un taonga (trésor) dont il faut prendre soin, qu'il faut protéger et transmettre à la génération suivante dans un état au moins aussi bon que celui dans lequel vous l'avez reçu.

Cette distinction est importante d'un point de vue pratique, et pas seulement philosophique.

Une plateforme fondée sur la logique de la propriété pose la question suivante : "Qui a le droit d'accéder à ce document ? "Qui a le droit d'accéder à ces données ? Une plateforme fondée sur la kaitiakitanga pose la question suivante : "Qui a la responsabilité de prendre soin de ces connaissances ? "Qui a la responsabilité de prendre soin de ces connaissances, et quels sont les protocoles appropriés pour les partager ?"

Village ne prétend pas avoir mis en œuvre un modèle de kaitiakitanga modèle de gouvernance des données. Cela nécessiterait un engagement plus profond avec des communautés spécifiques que ce qu'une plateforme peut réaliser à un niveau général. Mais l'architecture soutient les éléments clés : le contrôle par la communauté de ce qui est partagé, le consentement à tous les niveaux, la capacité de restreindre les connaissances aux groupes appropriés au sein de la communauté et l'impossibilité structurelle pour la plateforme ou toute partie externe d'accéder aux données de la communauté sans autorisation.

Guardian Agents: Les gardiens de la porte

Même une IA formée localement peut faire des erreurs. Elle peut ne pas se souvenir d'un détail, confondre deux événements ou générer une réponse qui semble correcte mais qui n'est pas fondée sur vos enregistrements réels. C'est la nature même de la technologie : elle prédit des textes plausibles, et plausible n'est pas synonyme d'exact.

C'est là que les Guardian Agents intervient.

Guardian Agents l'IA est constituée de quatre couches de vérification indépendantes qui contrôlent chaque réponse de l'IA avant qu'elle ne parvienne au membre. Il ne s'agit pas d'une IA supplémentaire, mais de systèmes de mesure mathématiques structurellement distincts de l'IA qu'ils surveillent.

Voici ce qu'ils font, en termes simples :

Le premier gardien prend la réponse de l'IA et mesure à quel point elle correspond au contenu réel des enregistrements de votre communauté. Il ne s'agit pas de savoir si la réponse semble correcte, mais si elle est mathématiquement similaire aux documents réels. Si l'IA dit "Le runanga a décidé de poursuivre le projet de construction en septembre", le tuteur vérifie si vos archives contiennent effectivement une décision concernant un projet de construction en septembre.

Le deuxième tuteur décompose la réponse en affirmations individuelles et vérifie chacune d'entre elles séparément. Une réponse d'IA peut contenir trois déclarations - deux exactes et une fabriquée. Le deuxième tuteur détecte la fabrication même si la réponse globale semble convaincante.

Le troisième gardien est à l'affût de modèles inhabituels au fil du temps : changements dans le comportement de l'IA, erreurs répétées, résultats qui s'approchent de limites définies. Il surveille la santé du système, et pas seulement les réponses individuelles.

Le quatrième gardien tire des enseignements du retour d'information de votre communauté. Lorsqu'un membre du whanau indique qu'une réponse de l'IA n'est pas utile (un simple pouce vers le bas suffit), le système recherche ce qui n'a pas fonctionné, classifie la cause première et procède à des ajustements. Les modérateurs peuvent revoir et affiner ces corrections, mais l'apprentissage commence avec les membres ordinaires. Au fil du temps, l'IA s'aligne davantage sur les connaissances réelles de votre communauté, et non moins.

Chaque réponse de l'IA dans Village comporte un indicateur de confiance qui indique au membre à quel point la réponse est fondée. Un niveau de confiance élevé signifie que le tuteur a trouvé des correspondances solides dans vos dossiers. Un niveau de confiance faible signifie que la réponse est plus spéculative. Les membres peuvent retracer toute affirmation de l'IA jusqu'à sa source, c'est-à-dire le document, l'histoire ou l'enregistrement spécifique qui l'étaye.

Cette fonction n'est pas offerte par l'IA de Big Tech, car cette dernière n'est pas fondée sur vos dossiers, mais sur l'internet. Elle est fondée sur l'internet, et il n'existe aucun moyen pratique de vérifier des milliards de pages de données d'entraînement par rapport à une seule réponse.

Le compromis

Village AI n'est pas aussi puissant que ChatGPT ou Gemini. Il ne peut pas écrire de la poésie dans le style de Shakespeare, générer des images photoréalistes ou tenir une conversation approfondie sur la physique quantique. Il s'agit d'un système plus petit dont l'objectif est plus ciblé.

Ce qu'il offre à la place, c'est la fidélité à votre communauté - son contenu, ses valeurs, sa gouvernance - combinée à la vérification mathématique que ses réponses sont fondées sur vos enregistrements réels, et non sur les modèles statistiques de l'internet.

Pour une communauté indigène qui a besoin d'aide pour faire des annonces, répondre aux questions des whanau sur les activités de la communauté, résumer les procès-verbaux de hui, coordonner les événements ou préserver les histoires et les connaissances, il ne s'agit pas d'une limitation. C'est précisément l'outil qui convient à cette tâche.

La question n'est pas de savoir quelle IA est la plus puissante La question est "quelle IA sert ma communauté - et laquelle véhicule les modèles de la culture qui nous a historiquement marginalisés ?"


Ceci est l'article 2 sur 5 de la série "To Hapori, To AI". Pour l'architecture Guardian Agents l'architecture complète, visitez Village AI on Agentic Governance.

Précédent : Ce qu'est l'IA (et ce qu'elle n'est pas) Suivant : Pourquoi les règles et la formation ne suffisent pas - Le défi de la gouvernance

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.