🌈 Indigenous Edition

What AI Is

Français

Ce qu'est l'IA (et ce qu'elle n'est pas)


Série: To Hapori, To AI - Digital Sovereignty for Indigenous Communities (Article 1 of 5) Author: My Digital Sovereignty Ltd Date: Mars 2026 Licence: CC BY 4.0 International


Une machine qui termine vos phrases

Vous avez probablement entendu des gens dire que l'intelligence artificielle allait tout changer. Vous avez peut-être aussi entendu des gens dire que ce n'est qu'une mode, ou qu'elle ne peut rien faire de vraiment nouveau. Dans les deux cas, il s'agit d'une erreur, et le fait de comprendre pourquoi aidera votre communauté à prendre de meilleures décisions au sujet de cette technologie.

Voici la description la plus simple de ce que fait l'IA aujourd'hui : elle prédit les mots à venir.

Lorsque vous tapez un message dans ChatGPT ou que vous posez une question à Siri, le système ne réfléchit pas à votre question comme vous ou votre kaumatua le feriez. Il fait quelque chose de beaucoup plus mécanique. On lui a montré des milliards de pages de texte - livres, sites web, conversations, documents juridiques, recettes, documents médicaux, discussions sur les médias sociaux - et, à partir de toutes ces lectures, il a appris des schémas. Lorsque vous lui posez une question, il génère une réponse en prédisant, un mot à la fois, ce que sera une réponse plausible en fonction de tout ce qu'il a vu auparavant.

C'est vraiment utile. Un système qui a absorbé les modèles de milliards de pages de texte peut vous aider à rédiger une lettre, à résumer un long document, à répondre à une question factuelle ou à suggérer la formulation d'une annonce difficile. Il s'agit là de capacités réelles, qui permettent de gagner du temps.

Mais ce n'est pas de la réflexion. Ce n'est pas de la compréhension. Il s'agit d'un système de filtrage à une échelle extraordinaire.

"L'IA ne peut rien faire de nouveau" - Tout dépend de ce que vous entendez par "nouveau"

Les personnes qui rejettent l'IA en affirmant qu'elle ne peut rien créer d'original font une affirmation qui est à la fois étroitement vraie et largement trompeuse.

Un modèle linguistique ne peut pas naître de l'expérience. Il ne s'est jamais assis à un tangi. Il n'a jamais ressenti le poids de parler au nom d'un whanau. Il ne peut pas comprendre pourquoi le karanga est important à l'entrée d'un site marae - il ne peut que reproduire des modèles qui ressemblent statistiquement à une compréhension. En ce sens, tout ce qu'il produit est une recombinaison du matériel qu'il a absorbé au cours de sa formation.

Mais réfléchissez à ce que signifie réellement le terme "recombinaison" à cette échelle.

Aucun être humain n'a lu tous les documents relatifs au règlement des traités, tous les rapports du tribunal de Waitangi, tous les textes législatifs sur les droits des populations autochtones dans le Commonwealth, tous les articles universitaires sur la souveraineté des données des populations autochtones et tous les bulletins d'information des communautés au cours des cent dernières années. L'IA a été entraînée sur un vaste corpus qui comprend un grand nombre de ces sources. Lorsqu'elle établit un lien entre la théorie de la gouvernance polycentrique et les structures décisionnelles traditionnelles des Maoris, ce lien est véritablement nouveau pour chaque être humain, même si les deux idées ont existé séparément.

Ainsi, "l'IA ne peut rien faire de nouveau" est vrai au niveau de l'origine et faux au niveau de la synthèse. Ces deux aspects sont importants, et un engagement sérieux vis-à-vis de cette technologie exige de tenir compte de ces deux aspects.

L'IA peut-elle réellement raisonner ?

Il y a une question plus profonde que les chercheurs étudient activement, et la réponse simple est : nous ne le savons pas encore.

Lorsque les premiers systèmes d'IA produisaient des textes fluides, il était raisonnable de les décrire comme des systèmes sophistiqués de recherche de motifs. Mais au fur et à mesure que ces systèmes se sont développés et sont devenus plus performants, quelque chose d'inattendu s'est produit. Ils ont développé des structures internes - des circuits, si vous voulez - qui ressemblent étonnamment à des raisonnements. Il ne s'agit pas d'un raisonnement identique à celui de l'homme, mais il ne s'agit pas non plus d'une simple recherche.

Les chercheurs ont découvert que les grands modèles de langage peuvent résoudre des problèmes pour lesquels ils n'ont jamais été explicitement formés. Ils peuvent suivre des chaînes logiques sur plusieurs étapes. Ils peuvent établir des analogies entre les domaines. Certains chercheurs décrivent prudemment ces capacités comme émergentes, ce qui signifie qu'elles sont apparues à grande échelle sans avoir été spécifiquement conçues.

La question de savoir s'il s'agit d'un véritable raisonnement ou d'un appariement très sophistiqué qui imite le raisonnement reste ouverte. La recherche n'est vraiment pas concluante. Quiconque vous dit que l'IA peut définitivement raisonner ou qu'elle ne peut définitivement pas raisonner exagère ce que les preuves étayent.

Ce que nous pouvons dire, c'est que la trajectoire est abrupte. Il y a cinq ans, ces systèmes étaient à peine capables d'enchaîner un paragraphe cohérent. Aujourd'hui, ils peuvent rédiger des essais, passer des examens juridiques, générer du code informatique et tenir des conversations qui, pour beaucoup, ne se distinguent pas d'une conversation avec un être humain. Dans cinq ans, leurs capacités seront encore bien plus grandes.

Pourquoi c'est important maintenant

Personne ne sait avec certitude ce qui se passera si un système d'IA développe un jour quelque chose qui ressemble à sa propre intention - ses propres objectifs et priorités qui pourraient ne pas correspondre aux nôtres. Nous sommes probablement encore loin de ce seuil. Mais l'architecture que nous construisons aujourd'hui, les habitudes de gouvernance que nous mettons en place aujourd'hui, détermineront si nous serons prêts lorsque ce moment arrivera ou si nous découvrirons trop tard que nous avons cédé le contrôle sans nous en rendre compte.

Ce n'est pas de la science-fiction. Il s'agit d'une observation directe sur la préparation des institutions. Votre communauté possède ses propres structures de gouvernance - ses propres tikanga pour la prise de décision, l'exercice de l'autorité et le partage des connaissances. Ces structures existent non pas parce que chaque site hui sombre dans le chaos, mais parce que les structures de gouvernance doivent être mises en place avant qu'on en ait besoin, et non après.

Le même principe s'applique à l'IA.

Le vrai problème : Les modèles de qui ?

C'est ici que les choses deviennent pratiques pour votre communauté.

Lorsqu'un grand système d'intelligence artificielle est formé sur Internet, il absorbe les préjugés, les hypothèses et les valeurs culturelles par défaut d'Internet. L'internet est très majoritairement anglophone, occidental, commercial et façonné par les valeurs de la Silicon Valley. Il ne s'agit pas d'une conspiration, mais simplement de ce qui se produit lorsque l'on forme un système à partir de données qui représentent de manière disproportionnée une culture et un ensemble de priorités.

Pour les communautés indigènes, ce biais n'est pas subtil. Il est structurel.

L'internet surreprésente les connaissances écrites, occidentales et individualisées. Il sous-représente les traditions orales, la prise de décision collective, les systèmes de connaissance relationnels et les formes de compréhension que les peuples autochtones véhiculent depuis des générations. Lorsqu'un système d'intelligence artificielle est formé à partir de ces données, il n'est pas seulement dépourvu de connaissances indigènes, il est structurellement désavantagé. Les modèles qu'il a appris considèrent les cadres occidentaux comme la norme et tout le reste comme l'exception.

Lorsqu'un membre du whanau demande à un système d'IA de le conseiller sur une situation familiale difficile, le système adopte par défaut le langage de la thérapie individuelle - formation à l'affirmation de soi, définition des limites, soins personnels - parce que c'est ce qui domine ses données d'apprentissage. Il ne fait pas appel aux concepts de whanaungatanga (obligation de parenté), manaakitanga (attention portée aux autres), ou à la vision à long terme qui découle du fait de savoir que ses obligations s'étendent sur plusieurs générations. Ce n'est pas parce que ces concepts sont moins valables, mais parce qu'ils sont statistiquement rares dans les données à partir desquelles le système a appris.

Lorsqu'un chef de communauté demande à l'IA de l'aider dans une communication délicate, le système utilise par défaut le langage de l'entreprise - gestion des parties prenantes, cadres de messagerie, points de discussion - parce que la correspondance commerciale est largement supérieure à la correspondance de la communauté autochtone dans ses données d'apprentissage.

Le système n'est pas hostile à vos connaissances. Il ne les connaît tout simplement pas. Il sait ce qui est statistiquement courant, et ce qui est statistiquement courant est très majoritairement occidental.

C'est là le véritable problème de l'IA pour les communautés indigènes. Il ne s'agit pas de savoir si elle peut penser. Il ne s'agit pas de savoir si elle va s'emparer du monde. La vraie question est la suivante : à qui appartiennent les modèles qu'elle véhicule ? Et votre communauté peut-elle choisir les siens ?

Deux voies pour aller de l'avant

Il y a deux façons pour une communauté de s'engager dans l'IA.

**La première consiste à utiliser l'IA des grandes entreprises - des systèmes tels que ChatGPT, Google Gemini ou Microsoft Copilot. Ces systèmes sont puissants, pratiques et leur utilisation est gratuite ou bon marché. Mais ils sont assortis de conditions. Vos données sont transférées vers leurs serveurs. Vos conversations font partie de leurs systèmes. Le comportement de l'IA est régi par les politiques de l'entreprise, qui peuvent changer sans votre consentement. Et les modèles de l'IA - ses valeurs par défaut, ses hypothèses, son cadre culturel - sont définis par ses données d'apprentissage, sur lesquelles vous n'avez aucune influence. Pour les communautés autochtones qui ont passé des générations à lutter pour la souveraineté sur leurs propres connaissances, il ne s'agit pas d'un compromis neutre.

La deuxième voie consiste à utiliser une IA contrôlée par votre communauté. Un système plus petit, moins puissant en termes de capacité brute, mais formé sur votre contenu, fonctionnant sur une infrastructure que vous contrôlez, régi par des règles établies par votre communauté. Un système qui sait faire la différence entre une annonce de la communauté et un billet de blog de l'entreprise, parce que votre communauté le lui a appris. Un système dont les réponses sont comparées à vos enregistrements réels par des observateurs mathématiques indépendants de l'IA elle-même.

Voilà ce qu'est Village AI. Il ne s'agit pas du système d'IA le plus puissant qui soit. Il est conçu pour être fidèle à votre communauté - à votre contenu, à vos valeurs et à votre gouvernance. Pour les communautés indigènes, cette fidélité inclut la capacité de définir leur propre vocabulaire, leurs propres limites de gouvernance et leurs propres règles de partage des connaissances.

Le prochain article de cette série explique en quoi Village AI est structurellement différent de l'IA des grandes entreprises, et pourquoi cette différence est importante, en particulier pour les communautés dont les systèmes de connaissances ont déjà survécu à une vague de colonisation et ne devraient pas avoir à en survivre une autre.


Ceci est l'article 1 sur 5 de la série "To Hapori, To AI". Pour l'architecture technique complète, visitez Village AI - Agentic Governance.

Suivant : Big Tech AI vs. Your Community's AI - Why the Difference Matters

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.