Authenticité & Détection d'IA
January 29, 2024
Déverrouiller l'Avenir de l'Authentification de Contenu : La Percée d'IMATAG dans le Marquage des Images Générées par IA
LECTURE RAPIDE
<div class="hs-cta-embed hs-cta-simple-placeholder hs-cta-embed-116492913348"
style="max-width:100%; max-height:100%; width:170px;height:520px" data-hubspot-wrapper-cta-id="116492913348">
<a href="https://cta-eu1.hubspot.com/web-interactives/public/v1/track/redirect?encryptedPayload=AVxigLLehWJ%2FT5pxDsLJlls3YKTMniFVJAhtr9Gj1dIqr53fXjMdWtEzIHnMgWB0Oo20FGIzbHLMjEQC2s7qZSXiermwpBmIEz7EjlBlf9k6qkgL9Ag%3D&webInteractiveContentId=116492913348&portalId=4144962" target="_blank" rel="noopener" crossorigin="anonymous">
<img alt="Do you know which laws apply to you?" loading="lazy" src="https://hubspot-no-cache-eu1-prod.s3.amazonaws.com/cta/default/4144962/interactive-116492913348.png" style="height: 100%; width: 100%; object-fit: fill"
onerror="this.style.display='none'" />
</a>
</div>
Partagez cet article
Abonnez-vous au blog !
Je m'abonneIMATAG, expert reconnu de la technologie du tatouage numérique et de ses applications dans divers secteurs, tels que le suivi des images de presse et la protection des contenus visuels sensibles, relève un nouveau défi. L'objectif est d'identifier le contenu généré par l'intelligence artificielle (IA), une étape cruciale pour garantir la confiance dans l'information numérique. Nous sommes ravis d'annoncer la publication de notre démo sur Hugging Face, qui intervient deux jours seulement après le lancement de SDXL Turbo par Stable Diffusion. C'est la première fois qu'une technologie indépendante du processus de développement du modèle d'IA permet à la fois le marquage et la détection.
Digital Watermarking : comment ça marche
Pour comprendre l'innovation d'IMATAG, il est essentiel de comprendre le fonctionnement du tatouage numérique. Le processus se compose de deux étapes cruciales : le marquage et l'identification.
Lors du marquage, un tatouage numérique invisible (digital watermak) est incorporé dans l'image. L'identification consiste à scanner l'image ou la vidéo pour détecter la présence du tatouage.
Traditionnellement, le watermark est apposé après la création du contenu. Cependant, avec l'IA générative, une approche plus appropriée consiste à introduire le marqauge pendant le processus de génération, comme expliqué plus loin dans cet article.
Watermark d'IMATAG pour les images générées par l'IA
Démo "Watermarkink de SDXL-Turbo" d'IMATAG sur Hugging Face
Le 28 novembre 2023, Stable Diffusion a publié SDXL Turbo, un modèle avancé de génération d'images par l'IA. Deux jours plus tard, les experts d'IMATAG ont mis à disposition une solution de watermarking invisible sur Hugging Face pour identifier les images générées par cette IA.
Dans cette démonstration, les utilisateurs peuvent générer une image en fournissant un prompt décrivant l'image souhaitée. Un watermark imperceptible est inséré au cours du processus de génération de l'image, certifiant qu'il s'agit d'une image synthétique. La démonstration permet également de détecter le watermark (sous la forme d'une probabilité) après avoir soumis l'image générée à diverses attaques, telles que la compression ou la saturation.
Cette technique est basée sur le raffinement d'un processus développé par des scientifiques de l'INRIA et de Meta, connu sous le nom de StableSignature (voir références). Elle consiste à modifier les poids du modèle d'IA générative (dans ce cas, SDXL Turbo) pour qu'il génère naturellement des images tatouées. Cette approche est idéale pour l'IA générative open source, contrairement aux techniques "générer puis tatouer". Pour une plus grande robustesse, IMATAG a combiné cette méthode avec son décodeur interne à zéro bit (indiquant la présence ou l'absence d'un filigrane, sans charge utile), capable de décoder même des watermarks très altérés.
Essayez-le
Pour explorer le potentiel de cette technique, vous pouvez la tester sur Hugging Face, en ajustant les paramètres pour contrôler la visibilité et la robustesse du filigrane.
Impact sur la visibilité : Le processus de formation établit un équilibre entre la robustesse du tatouage et la qualité de l'image. L'objectif de perceptibilité est réglé sur l'objectif initial de la diffusion stable, entraînée sur des images réelles.
Robustesse : La démo vous permet d'ajuster la force du watermark dans le modèle généré, en testant différents compromis entre la perceptibilité et la robustesse.
Limites de la démo
Il est important de noter que le détecteur utilisé dans cette démonstration est une version "dégradée" de notre détecteur interne. Il a été entraîné à résister au recadrage, à la compression JPEG et à la capture d'écran par les smartphones. Les défis tels que les retournements d'images, les perspectives extrêmes, les rotations et l'ajout de texte n'ont pas fait partie de l'apprentissage. Cet exercice se concentre sur un filigrane unique (pas de traçage), sans message caché. Le détecteur n'identifiera que ce filigrane spécifique et aucun autre.
Pour des caractéristiques supplémentaires, telles que des clés de sécurité, des filigranes multiples, des messages cachés ou une robustesse accrue, n'hésitez pas à nous contacter.
Qu'est-ce qui rend cette démonstration remarquable ?
La solution d'IMATAG est la première technologie indépendante de filigrane pour les modèles d'IA. Si certains développeurs d'IA, comme DeepMind avec SynthID, appliquent déjà des algorithmes de tatouage numérique, ils les limitent généralement à leurs propres modèles.
L'objectif premier de cette démonstration est le progrès scientifique. Dans le cas de Stable Diffusion, il suffit de recharger le modèle non filigrané pour générer des images sans filigrane, puisque les poids originaux sont accessibles au public. IMATAG vise à encourager les producteurs de modèles, tels que StabilityAI, à tatouer leurs modèles avant toute diffusion publique des poids.
Cette initiative met en avant le conseil d'Imatag à la communauté IA open source : faites confiance à des spécialistes du tatouage numérique pour sécuriser et respecter les normes de vos projets GenAI incluant des tatouages. Notre démo, dévoilée seulement deux jours après le lancement du modèle, prouve qu'une solution adaptée peut être mise en place rapidement et efficacement, évitant ainsi la baisse de qualité souvent liée au marquage après production.
Conclusion et perspectives d'avenir
À une époque où les images générées par l'IA sont de plus en plus convaincantes, l'importance de l'authentification est primordiale, notamment dans le contexte des "deepfakes" et des créations d'IA très réalistes. Les autorités européennes et américaines insistent désormais pour que les utilisateurs disposent d'outils leur permettant de distinguer les contenus authentiques des créations synthétiques.
Si les annonces récentes de l'industrie, telles que SynthID de DeepMind, sont rassurantes, elles restent souvent en version bêta pour le filigrane, avec un impact immédiat limité. Pour aller de l'avant, il faut perfectionner les outils, adapter les réglementations, sensibiliser et encourager la collaboration entre les leaders de la technologie, les régulateurs et les utilisateurs. En cette ère dominée par l'IA, la confiance, la sécurité et l'authenticité restent des préoccupations essentielles, et l'Histoire du Digital Watemarking, initié dans les années 1950, continue de s'écrire.
-----
À propos de StableSignature : L'approche de Stable Signature est d'entraîner le modèle d'IA génératif à générer des images nativement marquées. Ce billet de blog reflète le travail de Matthijs Douze et Pierre Fernandez, avec les contributions de Guillaume Couairon, Teddy Furon, et Hervé Jégou à cette recherche. D'autres ressources sont disponibles sur leur dépôt GitHub.
Plus de détails techniques d'Imatag-lab sur l'algorithme ici.
Vous voulez « voir » un filigrane invisible ?
En savoir plus sur la solution d'IMATAG pour insérer des filigranes invisibles dans votre contenu visuel.
Réservez une démoCes articles peuvent également vous intéresser
Authenticité & Détection d'IA
September 19, 2024
Le paysage juridique de l'authenticité des contenus : votre guide des réglementations émergentes
Authenticité & Détection d'IA
July 25, 2024
Mise à jour de l'AI Act : Nouvelles exigences de watermarking pour les contenus générés par l'IA
Authenticité & Détection d'IA
June 14, 2024