L’alerte : DeepSeek, ChatGPT et consorts suspendus dans plusieurs États
En ce début 2025, l’administration publique européenne se retrouve en pleine tourmente vis-à-vis des modèles de langage génératif (LLM) tels que DeepSeek – le rival chinois de ChatGPT – qui a récemment vu son usage interdit en Italie dès la fin janvier (source). La France n’est pas en reste: elle a, en février 2025, « fortement déconseillé » leur utilisation dans de nombreuses administrations, invoquant la protection des données personnelles et le risque d’exposer des secrets sensibles. Cela fait écho aux précédentes suspensions de ChatGPT, déjà retiré temporairement d’Italie en 2023.
Ce durcissement n’est pas anodin: il reflète des inquiétudes croissantes face à la dépendance aux technologies non souveraines – majoritairement américaines ou chinoises. Les risques de » leak » de données ou d’usage non conforme au RGPD sont au cœur des débats, à l’heure où l’actualité IA fait état chaque semaine de nouveaux incidents ou alertes de cybersécurité impliquant ces outils.
Alors que des acteurs comme OpenAI (ChatGPT) ou DeepSeek font régulièrement la une, la suspension récente de DeepSeek a été motivée par une cyberattaque majeure et des suspicions de reproduction non autorisée du modèle ChatGPT, mettant davantage la pression sur les autorités pour renforcer les contrôles dans la sphère publique.
La question de la régulation énergétique et éthique de ces IA génératives, couplée à la souveraineté numérique, devient ainsi centrale dans le débat sur l’actu intelligence artificielle en Europe.
Les raisons de la méfiance : conformité, sécurité, confidentialité
La prudence accrue des administrations vis-à-vis des LLMs comme ChatGPT ou DeepSeek s’ancre dans plusieurs facteurs clefs: conformité réglementaire, protection des données et sécurité nationale. En France, le RGPD et le tout nouveau AI Act européen définissent désormais un cadre strict pour l’utilisation de l’IA en contexte public. À noter que toute fuite d’informations confidentielles ou d’échanges stratégiques via ces IA, potentiellement stockés sur des serveurs extraterritoriaux, expose les agents publics à des infractions lourdes.
Comme l’explique l’Agence nationale de la sécurité des systèmes d’information (ANSSI), « le risque de fuite d’information et d’utilisation détournée des données générées ou saisies dans ces systèmes n’est pas théorique ». Selon un avis de sécurité officiel de 2024, il est demandé aux administrations de privilégier des solutions contrôlées, voire internes, pour tout échange stratégique ou données personnelles.
Des prises de position récentes (par exemple, le Sénat français ou Mounir Mahjoubi, ex-secrétaire d’État au Numérique) rappellent que la souveraineté des données n’est pas qu’une question juridique: elle conditionne la souveraineté technologique face à des acteurs GAFAM capables d’exploiter des millions d’interactions publiques à des fins commerciales ou d’optimisation algorithmique.
L’usage de ces IA est donc profondément lié à la notion de confiance numérique. Sur ce point, les administrations veulent garantir que les citoyens disposent d’une protection renforcée, tout en préservant l’agilité et l’innovation. La diversification des solutions IA souveraines est désormais une priorité structurante pour l’actualité intelligence artificielle du secteur public.
Les premières répliques : quelles alternatives IA » contrôlées » émergent pour l’administration?
Face aux suspensions et alertes, les institutions publiques accélèrent la migration vers des alternatives plus sûres et souveraines. Plusieurs voies sont explorées:
- Déploiement de LLM open source européens: des modèles tels que ceux de Hugging Face ou les initiatives françaises et allemandes issues du partenariat 2024 France-Allemagne sont mis à l’essai dans des administrations, alliant déploiement local et gouvernance des données.
- Cloud souverain : des projets comme Gaia-X ou les offres avancées de cloud public par OVHcloud, Scaleway ou Nextcloud permettent aux institutions de conserver la maîtrise des données et la conformité juridique.
- Segmentation fonctionnelle et déploiement sur site: certaines entités segmentent les usages, favorisant, pour les tâches les plus sensibles, des IA hébergées à l’interne sur des serveurs certifiés.
Mais les défis sont nombreux: coût d’intégration, montage de compétences rares, écosystème logiciel à étoffer… Les premiers retours d’expérience montrent que le basculement vers des IA « contrôlées » se fait à rythme différencié selon les secteurs (santé, justice, police, etc.).
Pour approfondir cette dynamique, retrouvez aussi notre analyse sur les modèles LLM open source qui changent la donne, croisant innovation technologique et ambition de souveraineté.
L’évolution s’inscrit dans la grande transformation du secteur public numérique européen, qui privilégie désormais la robustesse et la maîtrise sur la simple performance brute ou la facilité d’accès.
Le rôle du secteur public dans la recomposition du marché de l’IA
L’influence du secteur public sur l’écosystème IA européen et mondial grandit à mesure que les administrations définissent des exigences strictes : interopérabilité, transparence, compatibilité RGPD ou AI Act. Ce pouvoir d’achat, loin d’être anodin, conditionne le développement des startups IA européennes, oriente les investissements des grandes plateformes et favorise l’émergence d’alternatives open source.
En donnant la préférence à des solutions cloud souverain, interopérables ou open source – à l’instar de Nextcloud ou Gaia-X -, l’État français et ses homologues européens encouragent un modèle où l’innovation rime avec exigences élevées de sécurité. Cette politique de commandes publiques agit comme un levier pour stimuler l’écosystème local : « L’administration doit se comporter en actrice de la souveraineté numérique, pas en simple consommatrice », rappelle un récent rapport du Sénat.
Cette dynamique impacte autant la réglementation (par exemple, la pression pour plus de contrôles sur les LLM propriétaires américains ou chinois) que la structuration d’offres cloud européennes, où les PME technologiques gagnent en visibilité. L’enjeu, pour 2025, sera d’inventer une nouvelle gouvernance, abordée dans notre dossier Nouveaux Défis de la gouvernance IA, qui explore la recomposition des rapports de force entre service public et big tech.
En investissant massivement dans des projets structurants, l’administration stimule non seulement la création d’un écosystème d’excellence technique, mais pose aussi les bases d’une autonomie stratégique pour l’Europe, enjeu central de l’actus intelligence artificielle mondiale.
Conclusion : Vers une nouvelle donne IA dans le secteur public?
L’actualité IA récente annonce-t-elle une basculegénéralisée? Il est clair que la suspension et la restriction des LLM exogènes dans les administrations marquent un tournant – sans doute le début de la souveraineté numérique publique. La dynamique enclenchée favorise l’émergence de nouveaux modèles d’IA: européens, open source, plus transparents et gouvernés localement.
Mais les défis à venir restent de taille : assurer l’interopérabilité entre solutions souveraines et outils mondiaux, soutenir l’innovation sans sacrifier la sécurité, et ajuster la régulation à l’évolution rapide des capacités IA. Ce mouvement pousse aussi à démocratiser l’IA dans les marchés publics, sujet largement discuté dans notre dossier sur la nouvelle offensive française pour démocratiser l’IA en entreprise.
Dès lors, la transformation n’est plus optionnelle: l’administration européenne, sous le regard attentif de la société civile, s’impose comme un moteur de la transition numérique responsable et d’un nouveau pacte de confiance numérique. La souveraineté IA, loin d’être un slogan, dessine dès aujourd’hui les contours du marché public de demain et pose les fondations d’une interopérabilité européenne et d’une innovation guidée par l’intérêt général.