Le gouvernement britannique travaille sur une nouvelle loi qui permettrait aux entreprises d'IA d'utiliser du contenu protégé par le droit d'auteur pour former leurs modèles, à moins que le créateur original ne se retire .

Cela signifie qu'à moins que vous ne disiez explicitement « ne vous entraînez pas sur mon matériel », ils peuvent continuer et l'utiliser.

Des écrivains, des artistes, des éditeurs et même des personnalités comme Paul McCartney et Tom Stoppard ont réagi avec force. Ils ont qualifié la situation de ce qu'elle est : une menace pour les droits des créateurs.

Après la réaction négative, le gouvernement britannique a marqué une pause et a déclaré qu'il recherchait de meilleures options.

🗣️ Ce que dit le gouvernement

Le secrétaire d'État britannique à la Technologie, Peter Kyle, a déclaré que l'idée de « retrait » était en cours de réexamen.

Au lieu de cela, ils explorent désormais des modèles de licence , dans lesquels les créateurs pourraient être payés lorsque leur travail est utilisé pour former l'IA.

Le gouvernement a ajouté de nouveaux amendements au projet de loi sur les données, y compris une promesse d'étudier l'impact économique de tout plan qu'il adoptera.

En gros : « Nous y travaillons encore. »

🤔 Ce que cela signifie (en termes humains)

L’ensemble de ce plan suppose que les créateurs peuvent « se retirer » de la formation de l’IA.
Mais voici le problème : comment ?

Les entreprises d’IA ne partagent pas publiquement les données sur lesquelles elles s’entraînent.
Il n’y a aucun moyen de vérifier si votre livre, votre photo ou votre article a été utilisé.
Et même si vous disiez non, il n’existe aucun système permettant aux entreprises d’IA de prouver qu’elles ont écouté.

Et quel est le plan du Royaume-Uni ?
C'est comme si on vous donnait une issue de secours dans une maison sans poignées de porte.

À moins que la loi n’oblige les entreprises à :

  • Partagez sur quoi ils s'entraînent

  • Honorer les listes d'exclusion

  • Rémunérer les créateurs équitablement

…alors rien ne change vraiment.

Et tandis que le Royaume-Uni prévoit de revoir tout cela au cours de l'année prochaine, les critiques disent que c'est trop lent - et que cela laisse les créateurs sans protection pendant que l'IA continue d'apprendre.

🔚 En résumé

  • 📜 Thème : Protection du droit d'auteur pour les créateurs vs. droits de formation à l'IA

  • 🧑‍🎨 Créateurs impliqués : Auteurs, musiciens, artistes et éditeurs, dont Paul McCartney et Tom Stoppard

  • 🧠 Ce qui est en jeu : l'IA peut-elle s'entraîner sur des œuvres protégées par le droit d'auteur sans autorisation ?

  • 📅 Chronologie : L'examen gouvernemental se poursuit jusqu'en 2025 ; un retard possible jusqu'à la fin de la législature (2029)

  • ⚖️ Mécanisme juridique : Politique de « retrait » proposée - désormais reconsidérée en faveur des modèles de licence

  • 📰 Plus d'infos :

❄️ Point de vue de l'équipe Frozen Light

Nous allons partager un secret avec vous :
Nous ne sommes pas encore au début du changement vers l’IA : nous y sommes déjà profondément engagés.

Et tandis que le Royaume-Uni essaie de faire ce qu’il faut – protéger les créateurs, établir des règles, créer un équilibre –
ils ont en quelque sorte oublié un petit détail : l'IA s'est déjà entraînée sur tout.

Vous ne pouvez pas « refuser » quelque chose qui a déjà été appris.
Il n’y a pas de bouton « oublier » dans l’IA.
Pas de retour en arrière.

Nous admirons l'effort. Sérieusement.
Ils sont l’un des premiers gouvernements suffisamment courageux pour tenter de s’attaquer à ce problème.
Mais si vous ne tenez pas compte de ce qui s’est déjà passé,
Comment protéger ce qui se passe ensuite ?

Cette loi tente de protéger les gens…
de quelque chose qui s’est déjà produit discrètement, à grande échelle.

Ce n’est pas une garantie d’avenir.
Cela apparaît en retard dans le téléchargement.

🎤 Ligne de chute de micro

La désinscription ne fonctionne que lorsque quelqu'un vous le demande en premier.
À l’heure actuelle, l’IA s’entraîne d’abord – et ne s’excuse jamais.

Expert Voices

Avinoam Boaron
Avinoam Boaron

2025 and the Big Crash of Copyright and Copy-Bots

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.