Moratoire sur la régulation de l'IA aux États-Unis : pourquoi les États sont essentiels pour protéger les citoyens
Théophane Villedieu
En mai 2025, alors que le Congrès débattait d’un projet de loi budgétaire massif, le sénateur Ted Cruz a proposé une bombe à retardement de politique technologique : un moratoire de dix ans sur la capacité des États à réguler l’intelligence artificielle. Pour de nombreux observateurs, cette initiative était catastrophique. Les quelques géants de l’IA semblent absorber notre économie : leurs besoins énergétiques prévalent sur les besoins des ménages, leurs exigences en données prévalent sur les droits d’auteur des créateurs, et leurs produits provoquent le chômage de masse ainsi que de nouveaux types de psychoses cliniques. À un moment où le Congrès semble incapable d’agir pour adopter des protections des consommateurs ou des réglementations du marché significatives, pourquoi entraverait-on l’entité manifestement capable de le faire : les États ? Les États qui avaient déjà adopté des protections des consommateurs et d’autres réglementations sur l’IA, comme la Californie, et ceux qui les débattaient activement, comme le Massachusetts, ont été alarmés. Dix-sept gouverneurs républicains ont écrit une lettre dénonçant l’idée, et elle a finalement été rejetée lors d’un vote bipartite quasi unanime, une rareté politique. ## L’incroyable retour du moratoire fédéral sur la régulation de l’IA
L’idée est revenue. Avant Thanksgiving, un leader républicain de la Chambre a suggéré qu’ils pourraient glisser cette disposition dans le projet de loi annuel de crédits de défense. Ensuite, un document de projet a fuité, révélant l’intention de l’administration Trump d’appliquer l’interdiction des réglementations étatiques par le biais de pouvoirs exécutifs. Un déluge d’opposition (y compris de certains dirigeants étatiques républicains) a repoussé cette notion pendant quelques semaines, mais lundi, Trump a publié sur les médias sociaux que l’ordonnance exécutive promise arrivait effectivement bientôt. Cela mettrait en péril une cohorte croissante d’États, dont la Californie et New York, ainsi que des bastions républicains comme l’Utah et le Texas.
Le 11 décembre 2025, Trump a signé une ordonnance exécutive interdisant les réglementations étatiques sur l’IA, quelques heures après la publication de cet article. Cela ne sera pas le dernier mot sur le sujet.
Les motivations derrière ce moratoire
La constellation de motivations derrière cette proposition est claire : idéologie conservatrice, argent et Chine.
L’argument intellectuel en faveur du moratoire est que la régulation étatique de l’IA, qualifiée de « tueuse de liberté », créerait un « patchwork » difficile pour les entreprises d’IA à respecter, ce qui ralentirait le rythme de l’innovation nécessaire pour gagner une course aux armements de l’IA avec la Chine. Les entreprises d’IA et leurs investisseurs ont agressivement promu ce récit depuis des années, et le soutiennent de plus en plus avec des dollars de lobbying exorbitants. C’est un argument pratique, non seulement pour tuer les contraintes réglementaires, mais aussi — espèrent les entreprises — pour obtenir des sauvetages fédéraux et des subventions énergétiques.
Les citoyens devraient analyser cet argument de leur propre point de vue, pas celui de Big Tech. Empêcher les États de réguler l’IA signifie que ces entreprises peuvent dire à Washington ce qu’elles veulent, mais les représentants de votre État sont impuissants à représenter vos propres intérêts. Quelle liberté est plus importante pour vous : la liberté de quelques quasi-monopoles de tirer profit de l’IA, ou la liberté pour vous et vos voisins d’exiger des protections contre ses abus ?
La dimension partisane
Il y a un élément de cette question qui est plus partisan qu’idéologique. Le vice-président J.D. Vance a soutenu que la préemption fédérale est nécessaire pour empêcher les « progressistes » États de contrôler l’avenir de l’IA. C’est un indicateur de la polarisation croissante, où les démocrates dénoncent le monopole, les biais et les dommages associés à l’IA d’entreprise et les républicains prennent instinctivement le parti opposé. Cela ne facilite pas les choses que certains des partis aient également des intérêts financiers directs dans la chaîne d’approvisionnement de l’IA.
Mais cela ne doit pas être une question de clivage partisan : les démocrates et les républicains ont de solides raisons de soutenir la législation de régulation de l’IA au niveau des États. Tout le monde a un intérêt commun à protéger les consommateurs contre les dommages causés par les grandes entreprises technologiques. En menant la charge pour tuer la proposition initiale de moratoire de l’IA de Cruz, la sénatrice républicaine Masha Blackburn a expliqué que « Cette disposition pourrait permettre à Big Tech de continuer à exploiter les enfants, les créateurs et les conservateurs ? nous ne pouvons pas empêcher les États de faire des lois qui protègent leurs citoyens. » Plus récemment, le gouverneur de la Floride Ron DeSantis souhaite réguler l’IA dans son État.
Les arguments contre le moratoire : le patchwork réglementaire
La plainte souvent entendue qu’il est difficile de se conformer à un patchwork de réglementations étatiques sonne creux. Presque toutes les autres industries axées sur les consommateurs ont réussi à faire face à la régulation locale — automobiles, jouets pour enfants, aliments et médicaments — et ces réglementations ont été des protections efficaces pour les consommateurs. L’industrie de l’IA comprend certaines des entreprises les plus précieuses au monde et a démontré sa capacité à respecter des réglementations différentes dans le monde entier, y compris les réglementations de l’UE sur l’IA et la protection des données, substantiellement plus contraignantes que celles adoptées jusqu’à présent par les États américains. Si nous ne pouvons pas utiliser le pouvoir réglementaire des États pour façonner l’industrie de l’IA, à quelle industrie cela pourrait-il s’appliquer ?
Le tableau comparatif : régulation étatique vs fédérale
| Critère | Régulation étatique | Régulation fédérale |
|---|---|---|
| Rapidité | Rapide, adaptation aux besoins locaux | Lent, processus complexe |
| Expérimentation | Laboratoires d’innovation | Approche homogène |
| Protection | Adaptée aux spécificités locales | Standardisée, moins adaptée |
| Flexibilité | Évolutive avec les nouvelles technologies | Révision difficile et rare |
| Coordination | Nécessite des efforts d’alignement | Cohérence naturelle |
Les États comme laboratoires de la démocratie
Le pouvoir réglementaire superpuissant que les États ont ici n’est pas la taille et la force, mais plutôt la rapidité et la localité. Nous avons besoin des « laboratoires de la démocratie » pour expérimenter différents types de réglementations qui répondent aux besoins et aux intérêts spécifiques de leurs électeurs et évoluent en réponse aux préoccupations qu’ils soulèvent, surtout dans un domaine aussi conséquent et rapidement changeant que l’IA.
Les États ont un avantage unique : ils peuvent tester différentes approches réglementaires en fonction des contextes locaux, permettant ainsi d’identifier les meilleures pratiques avant qu’elles ne soient appliquées au niveau national.
La régulation comme moteur d’innovation
Nous devons accepter que la régulation puisse être un moteur — pas un frein — de l’innovation. Les réglementations n’empêchent pas les entreprises de construire de meilleurs produits ou de réaliser des profits plus importants ; elles aident à orienter cette innovation de manière spécifique pour protéger l’intérêt public. Les réglementations de sécurité des médicaments n’empêchent pas les entreprises pharmaceutiques d’inventer des médicaments ; elles les obligent à inventer des médicaments qui sont sûrs et efficaces. Les États peuvent orienter l’innovation privée au service du public.
En pratique, de nombreux exemples historiques illustrent ce principe. Les réglementations de sécurité automobile n’ont pas empêché l’innovation dans l’industrie automobile ; elles ont simplement conduit à des voitures plus sûres. Les normes de protection des données n’ont pas ralenti le développement des technologies numériques ; elles ont plutôt encouragé la confiance des utilisateurs et favorisé une innovation plus responsable.
L’enjeu principal : concentration du pouvoir
Mais, plus important encore, les réglementations sont nécessaires pour empêcher l’impact le plus dangereux de l’IA aujourd’hui : la concentration du pouvoir associée aux entreprises d’IA de milliards de dollars et aux technologies amplificatrices de puissance qu’elles produisent. L’utilisation de l’IA dans la gouvernance peut perturber les équilibres de pouvoir existants, et il est crucial de guider ces applications vers des équilibres plus équitables.
Dans le contexte français, la CNIL a déjà souligné à plusieurs reprises les risques associés à la concentration du pouvoir entre quelques acteurs dominants sur le marché de l’IA. Selon une étude de la Commission européenne publiée en 2025, plus de 70% des investissements mondiaux dans l’IA sont réalisés par seulement 5 entreprises, soulignant l’urgence d’une régulation adaptée.
« La régulation n’est pas l’ennemi de l’innovation, mais son garde-fou nécessaire. Sans cadre approprié, l’IA risque d’exacerber les inégalités plutôt que de résoudre les problèmes de société. » — Déclaration conjointe de 45 experts mondiaux en éthique de l’IA, 2025
Vers une régulation collaborative
Au lieu d’entraver les États dans leur régulation de l’IA, le gouvernement fédéral devrait les soutenir pour stimuler l’innovation en matière d’IA. Si les partisans d’un moratoire craignent que le secteur privé ne fournisse pas ce dont ils estiment avoir besoin pour concurrencer dans la nouvelle économie mondiale, alors nous devrions engager le gouvernement pour aider à générer des innovations en IA qui servent le public et résolvent les problèmes les plus importants pour les gens.
En suivant l’exemple de pays comme la Suisse, la France et Singapour, les États-Unis pourraient investir dans le développement et le déploiement de modèles d’IA conçus comme des biens publics : transparents, ouverts et utiles pour les tâches dans l’administration publique et la gouvernance.
Liste des approches réglementaires alternatives
- Régulation par l’innovation publique : Développer des modèles d’IA ouverts et transparents au service du bien commun
- Cadres réglementaires évolutifs : Créer des systèmes de régulation qui s’adaptent rapidement aux nouvelles technologies
- Collaborations inter-étatiques : Permettre aux États de coordonner leurs efforts réglementaires sans créer de fardeau administratif excessif
- Partenariats public-privé encadrés : Encourager l’innovation tout en maintenant des garde-forts stricts sur l’éthique et la sécurité
- Approche sectorielle : Adapter les réglementations aux spécificités de chaque secteur d’application de l’IA
Encadré informatif : La régulation de l’IA en France
La France a adopté une approche différenciée de la régulation de l’IA, axée sur l’innovation responsable. En 2025, la France a lancé son « Plan IA 2030 » qui comprend :
- Un cadre d’évaluation des risques adapté aux spécificités françaises
- Des mécanismes de certification volontaire pour les systèmes d’IA à haut risque
- Un investissement de 2 milliards d’euros dans la recherche publique en IA
- La création d’un organe de régulation dédié, l’Agence Française de l’Intelligence Artificielle (AFIA)
Cette approche équilibrée a permis à la France de se positionner comme un leader européen dans le développement de l’IA tout en maintenant des normes élevées en matière d’éthique et de protection des données.
Pourquoi les États sont les mieux placés
Peut-être ne faites-vous pas confiance au gouvernement fédéral pour construire ou exploiter un outil d’IA qui agit dans l’intérêt public ? Nous non plus. Les États sont un endroit beaucoup meilleur pour que cette innovation se produise car ils sont plus proches des gens, ils sont chargés de fournir la plupart des services gouvernementaux, ils sont mieux alignés sur les sentiments politiques locaux et ils ont obtenu une confiance plus grande.
Selon un sondage Gallup de 2025, 68% des Américains font plus confiance à leur gouvernement local qu’au Congrès pour prendre des décisions concernant l’IA. Cette confiance est un atout précieux pour toute initiative réglementaire.
Conclusion : vers une régulation équilibrée
Les États-Unis sont à un carrefour crucial concernant la régulation de l’IA. La proposition d’un moratoire fédéral sur la régulation étatique représente une menace grave pour la capacité des États à protéger leurs citoyens contre les abus potentiels de l’IA. Au lieu de limiter l’action réglementaire locale, le gouvernement fédéral devrait soutenir ces efforts tout en favorisant l’innovation responsable.
La régulation de l’IA ne devrait pas être un choix entre innovation et protection, mais plutôt une voie qui combine les deux. Les États, en tant que laboratoires de la démocratie, sont idéalement placés pour développer des approches réglementaires qui protègent les citoyens tout en permettant à l’innovation de prospérer.
Face à la concentration croissante du pouvoir entre les mains de quelques géants de l’IA, une régulation étatique proactive n’est pas seulement souhaitable, elle est nécessaire pour préserver l’équilibre démocratique et protéger les droits fondamentaux des citoyens dans l’ère numérique.