Le 22 mai 2025, la Chambre des représentants des États-Unis a adopté un projet de loi qui comprend un moratoire de 10 ans sur toute loi étatique ou locale relative à l’IA.

Si cette loi est adoptée, plus de 1 000 projets de loi d'État actifs et en attente sur l'IA - de la Californie au Colorado - seront immédiatement gelés.
Les États ne seront pas autorisés à réglementer l’IA du tout.
Seul le gouvernement fédéral peut établir les règles, et jusqu’à présent, il n’existe pas de plan ni de calendrier clair concernant ce que seront ces règles.

Ils appellent cela l’harmonie réglementaire.
Mais cela ressemble bien plus à un silence réglementaire.

🔹 Ce que dit le gouvernement

La ligne officielle :

« Un seul règlement national vaut mieux que cinquante règlements différents. »

Les législateurs disent qu'il s'agit de :

  • Faciliter la mise en conformité des entreprises

  • Éviter un patchwork de règles confuses

  • Aider l'innovation en matière d'IA à progresser plus rapidement sans frictions juridiques

Sur le papier, cela ressemble à un progrès.
Mais le progrès pour qui ?

🔹 Ce que cela signifie (en termes humains)

Ce projet de loi stipule que pendant les 10 prochaines années, seul Washington pourra décider de la manière dont l’IA sera réglementée.
Les États perdent tout leur pouvoir.

Et voici à quoi cela ressemble dans la vraie vie :

  • Votre État veut interdire les deepfakes dans les publicités électorales ? C'est impossible.

  • Votre ville souhaite de la transparence sur la façon dont la police utilise la surveillance par IA ? Non.

  • Votre conseil scolaire souhaite des règles pour les outils de notation basés sur l'IA ? C'est interdit.

À l’heure actuelle, plus de 1 000 lois sur l’IA sont en vigueur au niveau des États – elles disparaîtront toutes si cette loi est adoptée.
Même lorsque les risques sont réels. Même lorsqu'il est urgent d'agir.

Les partisans disent que cela permet de garder les choses propres et unifiées.
Mais voici le hic :

🔸 Le gouvernement fédéral n’a pas encore rédigé de véritables règles en matière d’IA.
🔸 Ce projet de loi ne crée pas de plan – il empêche simplement tout le monde d’essayer.
🔸 Communautés ayant des besoins spécifiques ? Ignorées.
🔸 Innovation locale en matière de sécurité de l'IA ? Gelée.

Donc ce n’est pas de la rationalisation.
C'est une pause de 10 ans, déguisée en efficacité.

🔹 En résumé

  • 🟡 Ce n’est pas encore une loi – il faut encore l’approbation du Sénat

  • ❌ Si elle est adoptée, elle bloquera toute réglementation étatique et locale sur l'IA jusqu'en 2035

  • ✅ Les entreprises bénéficient d'un chemin de conformité unique - moins de maux de tête juridiques

  • 🚫 Les communautés perdent le droit de réagir à leurs propres risques liés à l’IA

  • ⚖️ La loi fait face à des contestations juridiques (et pourrait violer les règles du Sénat)

❄️ Point de vue de l'équipe Frozen Light

Il ne s’agit pas seulement d’IA.
Il s’agit de savoir qui peut agir et qui doit attendre.

Les personnes derrière ce projet de loi disent :

« Mettons fin au chaos et faisons les choses d’une seule manière : à notre façon. »

Mais nous avons déjà vu cela auparavant.
« Centralisation » sonne bien – jusqu’à ce qu’elle fasse taire les voix qui comptent.

Les États ont toujours été des laboratoires d’innovation, notamment dans les domaines de la sécurité technologique, de l’éducation et de la confidentialité.
Ce projet de loi ferme les laboratoires.
Et il le fait sans offrir de solution fonctionnelle en retour.

Si l’avenir de l’IA doit profiter à tous, il ne peut pas être construit par quelques-uns seulement.
Nous avons besoin de rapidité, certes, mais nous avons également besoin de diversité, d’adaptabilité et de réponse locale.

Sinon, la seule chose qui est réglementée…
c'est la liberté de construire mieux.

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.