Avatars, clones numériques et droits à l’image
Publiée le août 19, 2025
Publiée le août 19, 2025
Avec l’essor des avatars et des jumeaux numériques (Digital Twins), les mannequins, célébrités et talents doivent protéger leur image. Des sociétés comme The Diigitals commercialisent des supermodèles virtuels et, depuis 2023, des marques comme Mango et Levi’s ont réalisé des campagnes entièrement générées par IA. H&M prévoit de créer 30 clones numériques de mannequins et de permettre à ces derniers de licencier leur avatar à d’autres marques. Cette démarche, saluée pour sa dimension éthique, soulève de nombreuses questions : comment gérer les droits d’exploitation ? Quelle rémunération pour la création et la diffusion ? Quels usages doivent être interdits ou limités ?
Les juristes disposent déjà de plusieurs références. Aux États‑Unis, la Fashion Workers Act (FWA) entrée en vigueur à New York en juin 2025 impose que tout accord relatif à une réplique numérique (Digital Twins) soit distinct du contrat de représentation, précisant la portée, la finalité, la rémunération et la durée. Le FWA interdit aux agences d’exiger un engagement exclusif de plus de trois ans ou de percevoir une commission supérieure à 20 %. La loi new‑yorkaise exige également que le client obtienne un consentement écrit clair pour créer ou utiliser une réplique numérique, précisant l’objet, la rémunération et la durée. L’article de OnLabor souligne que ce consentement doit être indépendant du contrat d’agence et que les clients pourraient, en revanche, exercer une pression pour ne travailler qu’avec des mannequins ayant accepté la duplication.
En Californie, deux lois (AB 1836 et AB 2602) entrées en vigueur le 1ᵉʳ janvier 2025 renforcent les protections. AB 1836 interdit l’utilisation de répliques numériques de personnes décédées sans le consentement de leur succession et étend le droit à un recours permettant d’obtenir des dommages-intérêts minimums de 10 000 dollars. AB 2602 rend inapplicables les clauses contractuelles autorisant l’usage d’une réplique numérique sans description précise ni représentation juridique du talent. Ces dispositions s’ajoutent à la réglementation européenne : l’AI Act impose de signaler clairement tout contenu généré par IA et de garantir la transparence des données d’entraînement (source citée dans la version anglaise non fournie ici), tandis que le Règlement général sur la protection des données (RGPD) encadre l’utilisation des données biométriques.
Pour sécuriser les modèles et talents, les contrats doivent comporter des clauses précises et respectueuses :
Définition de la réplique numérique : préciser qu’il s’agit d’une représentation générée par ordinateur pouvant reproduire la voix, le visage ou le corps d’un individu. Exclure les retouches mineures et standard.
Objet et finalité : détailler l’usage envisagé (campagne publicitaire pour mode, cosmétique, parfum, horlogerie ou joaillerie, présentation e‑commerce, formation interne) et interdire tout usage non prévu.
Consentement écrit distinct : exiger que le talent signe un document séparé spécifiant la création et l’utilisation de la réplique, en conformité avec la FWA.
Durée et périmètre d’exploitation : fixer la durée (par exemple trois ans maximum) et les territoires (monde entier ou zones spécifiques) de l’utilisation du clone.
Rémunération échelonnée : prévoir un forfait pour la création du jumeau numérique, puis un paiement par usage (par campagne, par vidéo, par plateforme) afin d’aligner les intérêts.
Protection contre la reformation : interdire l’entraînement de modèles d’IA sur les données du talent sans consentement, en s’inspirant des lois californiennes.
Prohibition des utilisations sensibles : exclure explicitement les utilisations qui pourraient nuire à la réputation (nudité non consentie, usage politique, deepfakes trompeurs). Le FWA impose déjà le respect des lois sur la décence.
Révocation et droit de retrait : permettre au talent de retirer son consentement et d’exiger la suppression du contenu généré dans un délai raisonnable, avec compensation équitable.
Transparence et traçabilité : imposer à la marque de documenter l’utilisation du clone (dates, campagnes, plateformes) et de fournir des rapports au talent. Les textes californiens exigent une description spécifique des usages.
Indemnisation et assurance : inclure une clause d’indemnisation couvrant les dommages causés par une utilisation non autorisée et obliger le client à souscrire une assurance responsabilité civile pour l’usage des répliques numériques.
Ces clauses doivent être intégrées dans les deal memos et les contrats cadres. Les agences de mode peuvent se doter de modèles de contrats et de playbooks de négociation pour guider leurs équipes commerciales. L’objectif est de protéger les talents tout en offrant aux maisons de mode, de cosmétique, de parfums, d’horlogerie et de joaillerie un cadre clair pour exploiter l’IA de manière responsable. Le dialogue permanent entre juristes, bookers et clients est essentiel : une clause mal comprise peut provoquer des litiges ou compromettre la confiance. En s’appuyant sur l’expertise de cabinets comme Palmer IA, Elite peut jouer un rôle de tiers de confiance et garantir une adoption harmonieuse des avatars et clones numériques.