La souveraineté numérique sera sans aucun doute un des enjeux phares de 2026, dans un contexte géopolitique incertain. Nous revenons dans cet article sur ce qu’est et ce que n’est pas la souveraineté numérique et exposons en quoi l’IA responsable permet d’y contribuer.
Le début d’année 2026 marque un tournant majeur au niveau géopolitique avec une réelle cassure entre les États-Unis et l’Union Européenne. Les menaces d’annexion du Groenland ont mis en lumière l’urgence pour l’Europe de se libérer au plus vite de sa dépendance numérique vis-à-vis des Américains. Mais comme souvent, les injonctions contradictoires sont légion. L’intelligence artificielle, actuellement dominée par des acteurs américains, occupe une place prépondérante dans l’espace médiatique, les newsletters, les propositions de formation, etc. On peut dès lors se demander si intelligence artificielle et souveraineté numérique sont conciliables.
C’est quoi la souveraineté numérique ?
Un point de définition semble important, car on a beau en parler partout, on a du mal à définir concrètement ce qu’est la souveraineté numérique. Est-ce que je renforce ma souveraineté numérique si j’achète un logiciel français ? Peu probable si votre logiciel français héberge ses données sur Amazon Web Services par exemple. L’achat “français” n’est donc pas forcément synonyme de souveraineté.
La dynamique du cloud de confiance tente d’apporter une réponse à cette problématique. Avec la certification SecNumCloud, l’Etat prévoyait de créer une filière de solutions technologiques garanties par l'État et les grands groupes français. Le problème est que cette qualification n’est aujourd’hui reconnue qu’en France, et pas dans le reste de l’Union Européenne : la commission européenne a en effet présenté le cybersecurity Act 2 en janvier en excluant les critères de souveraineté des certifications cloud. Ceci limite notre capacité à créer une réelle souveraineté européenne, chaque pays appliquant des règles et des référentiels différents. Autre problème, plusieurs clouds hybrides ayant vu le jour ces dernières années associant les GAFAM à des groupes français (Bleu, regroupant Capgemini, Orange et Microsoft, ou S3NS, associant Google et Thales) ont rejoint la liste des clouds certifiés.
Enfin, le simple hébergement dans un cloud de confiance suffit-il à être souverain ? Une IA peut-elle être de confiance simplement parce qu’elle est hébergée sur un cloud dit souverain ? Qu’en est-il de l’alignement de l’IA avec notre système de valeurs, à nos standards culturels, même pour une IA française comme Mistral ? À ce jour, aucun travail n’a été réalisé en y associant des historiens, des linguistes ou des philosophes par exemple.
L’IA responsable, au service de la souveraineté ?
L’IA responsable, au sens de la charte de l’Institut du Numérique Responsable, est une IA au service et maîtrisée par l'Humain, de confiance, inclusive, non-discriminatoire et écoresponsable.
Dans le détail, plusieurs points clés ci-dessous, contenus dans la charte IA responsable, permettent également de renforcer la souveraineté numérique telle que définie précédemment :
Nous nous engageons à mettre l'IA au service de l'humain dans le cadre du travail.
- En veillant que l’IA soit coconstruite avec eux (dialogue social, cas d’usage, feedbacks, …)
- En respectant l'autonomie, la qualité des interactions sociales et le sens du travail
- En intégrant dans ses spécifications d'achats le respect des traités internationaux qui visent à garantir que les activités liées à l'IA respectent notamment les droits de l'homme, la démocratie et l'état de droit.
Nous nous engageons à développer une IA inclusive et éthique.
- En respectant l'équité, la diversité et la non-discrimination, avec des mécanismes pour garantir la qualité et la représentativité des données utilisées pour éviter les biais de toutes natures (genre, ethnique, religieuse, …)
- En s’organisant pour réagir à toutes formes de discrimination qui pourraient résulter des données biaisées.
Nous nous engageons à construire une IA de confiance.
- En informant les utilisateurs en toute transparence de leur interaction avec un système d'IA ainsi que sur les sources de données utilisées
- En expliquant le fonctionnement des algorithmes d'IA de manière claire et accessible (en précisant les principes, les sources, les données exploitées et les facteurs influençant les résultats finaux)
- En veillant à la mise en place d'une supervision humaine pour toutes activités à risque.
- En renforçant la robustesse des systèmes d'IA contre les cyberattaques
Nous nous engageons à adopter une IA écoresponsable.
- En s'assurant de la bonne utilité des cas d'usage
Au-delà de la simple sécurité et contrôle de nos données, c’est bien l’alignement sur notre système idéologique et culturel qui est en jeu. À ce titre, l’IA responsable, comme démarche attentive aux biais de ses données, coconstruite avec et pour ses utilisateurs, vigilante à ses cas d’usages et à la sécurité de ses données, peut donc contribuer à renforcer notre souveraineté numérique.