Le Danemark tente de mettre à jour sa loi sur le droit d'auteur pour donner à chaque citoyen la propriété de son propre visage, de sa voix et de son corps, rendant ainsi illégal l'utilisation de l'image de quelqu'un dans un deepfake sans consentement.
Cette mesure est considérée comme l’une des plus agressives au monde contre l’utilisation abusive de l’IA.
Ce que dit le ministre danois de la Culture
« Il s’agit de redonner aux gens le contrôle de la façon dont ils apparaissent dans le monde numérique. »
– Jakob Engel-Schmidt, ministre danois de la Culture
Le Danemark estime que les deepfakes menacent la confiance du public, la sécurité individuelle et la démocratie. Il s'agit d'une question de droits, et non de panique technologique, et la nouvelle loi bénéficie déjà d'un large soutien politique.
Ce que cela signifie (en termes humains)
Si quelqu'un créait une vidéo de vous générée par l'IA - votre visage, votre voix - et que vous n'étiez pas d'accord ?
Vous pouvez désormais réellement faire quelque chose à ce sujet.
Vous pouvez demander sa suppression et une indemnisation.
Et si une plateforme ne le supprime pas ?
Ils pourraient être condamnés à une amende.
Cela fait passer la conversation de « Nous ne savons pas quoi faire à propos des deepfakes »
à:
Les humains sont désormais capables de se protéger.
Relier les points
Pour comprendre le changement proposé par cette loi danoise, nous devons définir deux termes clés :
Qu'est-ce que le droit d'auteur ?
Le droit d'auteur est un droit légal qui protège les œuvres originales, comme les livres, la musique, les films, les œuvres d'art, etc. Il donne au créateur le contrôle sur la manière dont son œuvre est utilisée, copiée, distribuée ou vendue. Seul le titulaire du droit d'auteur peut autoriser des tiers à utiliser son œuvre, et il peut intenter une action en justice si quelqu'un l'utilise sans son consentement.
Qu'est-ce qu'un Deepfake ?
Un deepfake est un média – généralement une vidéo, une image ou un son – créé ou modifié par l'IA pour donner l'impression que quelqu'un a dit ou fait quelque chose qu'il n'a jamais fait. Il peut copier le visage, la voix ou les expressions d'une personne de manière à ce qu'ils paraissent réels, même s'ils sont totalement faux. Certains deepfakes sont utilisés à des fins de divertissement ou de satire, mais d'autres peuvent causer de graves dommages : diffusion de fausses informations, atteinte à la réputation ou usurpation d'identité.
Mesures juridiques mondiales contre les deepfakes et les atteintes à l'IA
1. Loi américaine Take It Down
Promulguée le 19 mai 2025
Champ d'application : Criminalise les deepfakes intimes non consensuels (revenge porn). Les plateformes doivent supprimer le contenu signalé dans les 48 heures. Les sanctions peuvent aller jusqu'à trois ans de prison.
Statut : Promulgué-appliqué par la FTC.
Source : Le membre du Congrès américain Ryan Mackenzie - Facebook
2. Loi anti-contrefaçon (États-Unis)
Présenté : mai 2025 (audience au Sénat le 21 mai)
Portée : Tenirait les individus et les plateformes responsables des ressemblances générées par l’IA non autorisées (voix, images) et établirait des processus de notification et de retrait.
Statut : stade de proposition ; soutien bipartisan de la RIAA, des artistes et de YouTube.
Source : tubefilter
3. Lois des États sur le deepfake (États-Unis)
Exemples :
La loi « Stop Deepfakes Act » de l'État de New York, introduite en mars 2025, exige l'étiquetage des métadonnées pour les deepfakes politiques.
La loi NCII de New York (Hinchey) criminalise les deepfakes sexuels non consensuels.
La loi ELVIS du Tennessee (en vigueur depuis le 1er juillet 2024) protège les artistes contre le clonage de la voix/de la ressemblance.
Le Minnesota et d’autres États ont des lois pénalisant les deepfakes politiques ou intimes.
4. Interdiction des deepfakes au Minnesota
Statut : Des lois ont été adoptées pour pénaliser la création et la diffusion de deepfakes non consensuels et à visée politique. Certaines dispositions sont temporairement bloquées pour des raisons de respect du Premier Amendement ; des recours judiciaires sont en cours.
5. Loi européenne sur l'IA (mesures de transparence)
Proposition : la loi européenne sur l'IA établit des exigences de transparence pour les deepfakes (article 52(3)) - impose le filigrane ou l'étiquetage du contenu généré par l'IA.
Portée : Une approche basée sur les risques, traitant les deepfakes comme un « risque limité » mais exigeant des divulgations.
Pourquoi la loi danoise est révolutionnaire – même si d’autres ont agi en premier
1. Il ne s’agit pas d’interdire les deepfakes, mais de donner aux gens le droit d’auteur sur eux-mêmes.
La plupart des autres lois (comme la loi américaine Take It Down Act) visent à supprimer les contenus préjudiciables ou à sanctionner les utilisations malveillantes. Le Danemark va plus loin :
Il propose de modifier la loi nationale sur le droit d’auteur afin que votre visage, votre voix et votre corps vous appartiennent légalement, comme s’il s’agissait d’un livre écrit ou d’une chanson.
Il s’agit d’un changement de catégorie : de la modération du contenu au droit de la propriété.
2. Il crée un droit proactif – pas seulement une protection après un préjudice.
Les lois américaines et la loi européenne sur l'IA s'appuient sur :
Vous remarquez quelque chose de nocif
Le signaler
En espérant qu'il soit supprimé
L’approche du Danemark renverse la situation :
Si c'est votre image, vous en êtes propriétaire.
Cela signifie que vous n'avez pas à prouver le préjudice : vous pouvez agir sur la seule base d'une utilisation non autorisée. C'est une différence juridique majeure.
3. Il présente l’utilisation abusive du deepfake comme une violation du droit d’auteur, et pas seulement comme un problème de confidentialité ou de criminalité.
Cela ouvre la porte à :
Poursuites civiles, même si le contenu n'est pas sexuel ou diffamatoire
Réclamations de redevances pour utilisation commerciale abusive
Droits de retrait automatique en vertu des traités internationaux de propriété intellectuelle
Cela donne aux citoyens des outils juridiques dont seuls les créateurs, les interprètes et les entreprises bénéficient actuellement.
4. C'est un signal politique : promouvoir une normalisation à l'échelle de l'UE
Le Danemark ne se fait pas discret. Il prévoit de mener ce débat lors de sa présidence du Conseil de l'UE en 2025-2026.
Cela signifie qu'il ne s'agit pas seulement de la loi danoise -
Il s’agit d’un cas test pour voir comment l’Europe pourrait réécrire les règles autour de l’identité, du consentement et de l’IA.
En résumé
Statut : Consultation publique ouverte
Calendrier prévu : fin 2025 à début 2026
Type juridique : Modification de la loi danoise sur le droit d'auteur
S'applique à : Visage, voix, corps - utilisé dans le contenu généré par l'IA
Où suivre : site Web du ministère de la Culture , EU Law Tracker
Accès : Le projet complet sera publié pendant la phase de consultation
Prompt It Up : la nouvelle façon de se connecter à l'actualité
Vous ne savez pas quoi faire lorsqu'un événement grave comme un deepfake vous concerne ?
Vous n’avez pas besoin de faire défiler sans fin pour trouver des réponses.
Utilisez cette invite simple avec n'importe quel LLM de votre choix : remplissez simplement les blancs et obtenez une aide spécifique au pays et à la plate-forme en quelques secondes.
📋 Invite de copier-coller :
J'ai trouvé un deepfake de moi-même créé ou partagé à l'aide de [insérer l'outil ou la plateforme], et je vis à [insérer le pays].
Quels sont mes droits légaux et quelles mesures puis-je prendre pour le signaler, le supprimer ou prendre des mesures en fonction des lois en vigueur dans mon pays ?
Cela fonctionne avec ChatGPT, Claude, Gemini et la plupart des LLM - essayez-le là où vous vous sentez le plus à l'aise.
Point de vue de l'équipe Frozen Light -
Parce que la perspective est la façon dont vous arrêtez une secte
Nous n'aurions jamais pensé parler un jour de la protection par le droit d'auteur de notre propre visage ou de notre propre voix - mais nous y sommes.
Et aussi étrange que cela puisse paraître, cela ressemble à une réponse naturelle à un problème contre nature.
L'approche du Danemark est audacieuse. Elle donne aux citoyens le pouvoir juridique de décider de leur image dans le monde.
Dans un espace où les deepfakes deviennent de plus en plus difficiles à repérer et de plus en plus faciles à diffuser, ce type de protection n'est pas seulement utile, il est nécessaire.
Mais ne sautons pas la nuance.
Cette loi est puissante, mais le pouvoir comporte toujours des risques.
On s'inquiète déjà du caractère vague des définitions : quelqu'un pourrait-il revendiquer la propriété d'une légère modification, d'un grain de beauté, d'un filtre ?
Les créateurs pourraient-ils perdre de l’espace au profit de la parodie ou de la satire parce que personne ne veut risquer un retrait ?
Et puis il y a la plus grande question :
Que se passe-t-il lorsque le droit d’auteur devient un outil non pas de protection, mais de contrôle ?
Le Danemark prend un tournant important. Il démontre que l'identité mérite d'être reconnue par la loi.
Mais ce ne sera pas la version finale – et cela ne devrait pas l’être.
Le défi est désormais de trouver un équilibre : protéger les personnes sans étouffer la créativité, accorder des droits sans laisser place aux abus.
Et honnêtement ? Ils auront probablement besoin d'experts techniques dans la salle aussi, car prouver le vrai du faux n'est pas toujours une tâche que la loi peut accomplir seule.
C'est un début fort.
Ce qui vient ensuite définira si cela deviendra un bouclier ou une arme.