Alors que Sora d’OpenAI connaît un succès retentissant, la polémique enfle autour du nouveau réseau social de deepfakes. Son filigrane, censé prévenir les internautes lorsqu’une vidéo a été créée par l’intelligence artificielle, peut très facilement être retiré grâce à de nouveaux programmes. De quoi alimenter les craintes sur la désinformation que peut propager l’application.
Comment le filigrane de Sora est déjà contourné
Vous avez sans doute vu de nouvelles vidéos humoristiques envahir les réseaux sociaux depuis la sortie, le 30 septembre dernier, de Sora, l’application de deepfakes d’OpenAI. Alimentée par leur nouveau modèle de génération de vidéos Sora 2, la plateforme se présente comme le TikTok de l’IA. Elle permet de détourner les caméos d’autres utilisateurs ou de simplement générer des vidéos à partir de zéro, uniquement sur la base d’un prompt textuel.
Sora 2 améliorant significativement le réalisme des images, par rapport au précédent modèle, des garde-fous ont été prévus par OpenAI dès la sortie du réseau social. Problème : l’un d’entre eux a déjà été contourné par des internautes. Le filigrane (ou watermark) superposé aux contenus, avertissant de leur nature artificielle, s’avère très facile à retirer grâce à des outils créés par plusieurs internautes.
On les trouve très rapidement sur le web et les réseaux sociaux, que ce soit sur Reddit, Youtube, TikTok ou X (anciennement Twitter). Il s’agit parfois de solutions payantes mais d’autres sont disponibles gratuitement. Résultat une fois l’opération effectuée : plus aucun logo Sora apparaissant à divers endroits de l’image.
Avec d’autres outils, on peut au contraire ajouter le filigrane de Sora sur de vraies vidéos, sans doute dans le but de « troller » et tourner en dérision des contenus réels. Comme si la confusion entre IA et réalité n’était déjà pas assez grande…
Deepfakes : pourquoi les vidéos IA de Sora inquiètent autant
La possibilité d’effacer le logo Sora fait craindre une propagation des fake news sur les réseaux sociaux, déjà sujets à la désinformation. Cela soulève aussi des problèmes de violation des droits d’auteur et de propriété intellectuelle. Des personnages de fiction comme Mario ou Pikachu sont en effet détournés dans des vidéos parodiques, et générent un grand nombre de vues et de partages sur des comptes parfois monétisés.
Ces craintes sont d’autant plus importantes qu’on atteint, avec Sora 2, un niveau de réalisme bluffant. Les enchaînements sont beaucoup plus fluides et les règles de la physique, bien mieux respectées qu’avec le modèle précédent. Parfois, seule l’absurdité du scénario permet d’affirmer que la scène n’est pas réelle. Le photoréalisme devient alors particulièrement problématique lorsque le sujet de la vidéo est « plausible ».
Face à l’évolution exponentielle des intelligences artificielles, il semble de plus en plus difficile de créer une réglementation et des garde-fous à la hauteur de la tâche. La facilité à retirer le filigrane de Sora laisse penser que cette mesure vise surtout à dédouaner OpenAI de toute responsabilité, plutôt qu’à offrir une réelle protection.
« Move fast, fix later » est d’ailleurs le mantra de la Silicon Valley, nous rappelle Anthony Morel sur BFM Business. Autrement dit, pour ne pas se faire dépasser par les concurrents, on ne se soucie pas en amont des « pots cassés » éventuels : on les répare plus tard, quand le mal est déjà fait.
1 million de téléchargements en 5 jours : le succès fulgurant de Sora
Il faut dire que le potentiel commercial des fausses vidéos est immense. Avec cette idée novatrice de combiner une IA générative à un réseau social, OpenAI a frappé un grand coup.
Les chiffres ne mentent pas : Sora a dépassé le million de téléchargements en seulement 5 jours, arrivant ainsi en première position du classement sur l’App Store. L’application réalise même un démarrage encore plus important que ChatGPT, fin 2022. L’agent conversationnel est pourtant connu comme étant, à grande échelle, la technologie la plus rapidement adoptée de l’histoire, devant Internet et les smartphones.
Un exploit lorsque l’on sait que Sora n’est accessible, pour le moment, que sur invitation, et uniquement aux Etats-Unis et au Canada. Le réseau social pourrait-il ainsi surpasser les records de ChatGPT, lorsque son accès sera étendu au monde entier ?
L’application de vidéos IA créée par OpenAI promet des heures et des heures de divertissement, et les possibilités créatives semblent infinies. Mais la facilité avec laquelle on peut contourner les garde-fous, telles que le filigrane apposé aux contenus, pose de multiples soucis d’éthique et de sécurité. Propagande, théories complotistes ou discrédit de personnalités politiques : la création de deepfakes ultraréalistes pourrait s’avérer particulièrement dangereuse en cette période de tensions et de conflits internationaux.
Certains liens de cet article peuvent être affiliés.