OpenAI resserre les règles face aux deepfakes de célébrités sur Sora 2
L’essor rapide de Sora 2 — un outil de génération vidéo d’IA conçu par OpenAI — a déclenché une onde de choc à Hollywood. En effet, des vidéos mettant en scène des visages et des voix de célébrités sans autorisation ont émergé peu après le lancement, poussant OpenAI à agir.
Une montée rapide des usages non autorisés
L’application Sora 2 permet aux utilisateurs de créer des vidéos réalistes à partir de textes ou de « cameos », ces implémentations de visages ou de voix. Cependant, plusieurs personnalités publiques ont constaté que leur voix ou leur image étaient reproduites sans consentement. C’est notamment le cas de Bryan Cranston, qui a alerté le syndicat des acteurs américains SAG‑AFTRA après que des vidéos l’impliquant aient circulé sur Sora 2.
Une réponse coordonnée avec Hollywood
En réponse à ce mécontentement, OpenAI a annoncé un partenariat formel avec SAG-AFTRA, ainsi que plusieurs grandes agences de talents telles que United Talent Agency (UTA) et Creative Artists Agency (CAA). L’objectif : garantir que toute utilisation de la voix ou de l’image d’un artiste dans Sora 2 se fasse avec son accord explicite — un opt-in plutôt qu’un simple opt-out.
Renforcement des garde-fous
Parmi les mesures prises :
- Interdiction désormais de générer des vidéos de célébrités ou personnalités publiques sans leur consentement.
- Possibilité pour les représentants d’avoirs récemment décédés d’indiquer qu’ils ne souhaitent pas voir leur voix ou leur image utilisées.
- Réponse plus rapide aux réclamations pour usage non autorisé.
Enjeux éthiques et légaux
La situation soulève plusieurs interrogations. D’une part, il y a un équilibre à trouver entre innovation technologique et respect des droits à l’image et à la voix. D’autre part, la législation aux États-Unis — notamment le projet de loi No Fakes Act — pointe vers un encadrement plus strict des deepfakes et de l’usage de l’identité des personnes.
De plus, la question de la redevabilité se pose : qui doit intervenir quand l’IA produit un contenu jugé offensant, trompeur ou nuisible ? Les studios, les créateurs de l’IA ou encore l’utilisateur-final ?
Impact pour les utilisateurs et les créateurs
Pour les utilisateurs de Sora 2, cela signifie une contrainte accrue : moins de liberté pour générer des vidéos avec des visages connus, voire aucune pour certains cas. Pour les créateurs de contenu et l’industrie du divertissement, c’est une victoire partielle en faveur du contrôle de leur image. Toutefois, cela ralentira peut-être certaines formes d’expérimentation créatives.
Et vous ? Pensez-vous que les efforts d’OpenAI suffisent à protéger la voix et l’image des artistes dans le contexte des IA génératives, ou faut-il aller plus loin encore ?
À suivre…



Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.