
Authenticité & Détection d'IA
December 16, 2025
Détecter les images générées par l’IA : pourquoi des standards robustes de watermarking sont essentiels
LECTURE RAPIDE
<div class="hs-cta-embed hs-cta-simple-placeholder hs-cta-embed-116492913348"
style="max-width:100%; max-height:100%; width:170px;height:520px" data-hubspot-wrapper-cta-id="116492913348">
<a href="https://cta-eu1.hubspot.com/web-interactives/public/v1/track/redirect?encryptedPayload=AVxigLIgeE%2BZBJ%2BhrXtxqKYlCc2JGwyKAhpz1HAC66Q%2FH6hLZuT2EzO1Jr01oyQkVFe%2FG%2BcZ%2Bfa8aQ%2FMDds9uD5rsDbIJOaGE%2F6gzgr1ysPKs1eB3Gc5oa4NJLwTLHuThiSYgxOREc%2By8pcmjt3d5TFjgiqcOiJLMEDKDmVWZtjyaVxbzSAYSF2iR2k5S%2B%2BK5fnFTymlsTEP%2FVdETNjIbAAjDVdq2cY9gUUZo0AWvjaC3CnG9Q%3D%3D&webInteractiveContentId=116492913348&portalId=4144962" target="_blank" rel="noopener" crossorigin="anonymous">
<img alt="Do you know which laws apply to you?" loading="lazy" src="https://hubspot-no-cache-eu1-prod.s3.amazonaws.com/cta/default/4144962/interactive-116492913348.png" style="height: 100%; width: 100%; object-fit: fill"
onerror="this.style.display='none'" />
</a>
</div>
Partagez cet article
Abonnez-vous au blog !
Je m'abonneLes images générées par l’IA sont désormais omniprésentes dans les flux d’actualité, les outils de création et les plateformes sociales. À mesure qu’elles circulent librement, des questions se posent sur leur authenticité, leur traçabilité et leur conformité aux réglementations émergentes. Le watermarking invisible s’est imposé comme l’une des approches les plus prometteuses pour vérifier l’origine des images numériques à grande échelle.
Les avancées du watermarking invisible
Les watermarks invisibles (tatouages numériques) intégrer une signature numérique masquée directement dans une image. Bien qu'imperceptibles à l'œil nu, ils peuvent être détectés par des outils automatisés pour indiquer que le contenu a été créé par un système d'IA.
Les investissements de l'industrie dans ce domaine s'accélèrent. Des efforts tels que SynthID de Google montrent une dynamique claire et une volonté de fixer des normes plus élevées en matière de sécurité, de transparence et d'alignement réglementaire, en particulier en ce qui concerne les cadres tels que le Loi sur l'IA de l'UE et Loi californienne sur la transparence de l'IA exiger une divulgation plus claire des médias générés par l'IA.
Dans ce contexte, le watermarking s’impose progressivement comme une couche fondamentale pour la vérification de l’authenticité, la confiance et la provenance des contenus médiatiques, ainsi que pour le respect des obligations de transparence à venir.
Le défi : détecter le contenu généré par l'IA
Malgré les progrès réalisés, la détection reste un problème très technique. Les watermarks invisibles doivent survivre à toutes les transformations que subissent les images dans le monde réel, qu'elles soient intentionnelles ou non. Même des actions simples telles que le recadrage, le redimensionnement, le réglage de la luminosité ou la modification de l'arrière-plan peuvent modifier suffisamment la distribution des pixels pour affaiblir un filigrane.
Les recadrages importants constituent un défi particulier. Lorsque plus de 50 % d’une image est supprimée, de nombreuses méthodes de watermarking perdent une part significative de leur signal, ce qui réduit leur détectabilité. Les modifications dites « content-aware », (suppression d’un objet, régénération partielle d’une scène ou ajustements sémantiques locaux) peuvent également perturber les zones où l’information de watermark est intégrée.
Des travaux universitaires récents, notamment le Attaque UnMarker de l'université de Waterloo, a montré que de subtiles transformations basées sur la fréquence peuvent considérablement affaiblir ou effacer les tatouages numériques selon de nombreuses méthodes sans introduire d'artefacts visibles.
Au-delà de la suppression, la menace inverse doit être prise en compte : si un watermark peut être ajouté artificiellement à une vraie photo, l'ensemble du système de vérification perd sa fiabilité. Ces défis ne sont pas propres à une solution en particulier ; ils reflètent la complexité intrinsèque du watermarking lui-même.
Pourquoi la certitude de détection est importante
Des personnes mal intentionnées ont découvert qu'il est facile de contourner les règles de divulgation. Certains les ignorent tout simplement. D'autres manipulent les vidéos pour supprimer les filigranes d'identification. Le New York Times a trouvé des dizaines d'exemples de vidéos de Sora apparaissant sur YouTube sans l'étiquette automatique.
Plusieurs entreprises se sont également spécialisées dans la suppression de logos et de watermarks. Et le simple fait d’éditer ou de partager des vidéos peut entraîner la perte des métadonnées intégrées au contenu original, indiquant qu’il a été généré par une IA.
Cette érosion des signaux de provenance survient à un moment où les attentes du public évoluent dans la direction opposée. »Les spectateurs souhaitent de plus en plus de transparence quant à savoir si le contenu qu'ils voient est modifié ou synthétique», a déclaré Jack Malon, porte-parole de YouTube.
Dans ce contexte, le les conséquences d'une détection imparfaite ne sont pas théoriques. Une image légèrement recadrée ou filtrée peut induire des millions de personnes en erreur si son watermark devient indétectable. Un deepfake peut circuler pendant un cycle électoral sans être reconnu comme étant synthétique. Les créateurs authentiques peuvent être considérés à tort comme produisant du contenu basé sur l'IA, tandis que les visuels générés par l'IA échappent à toute identification dans des contextes sensibles tels que le journalisme ou les enquêtes judiciaires.
Dans ces scénarios, « généralement fiable » ne suffit pas. Le watermarking doit fonctionner de manière fiable dans les conditions chaotiques et imprévisibles de la circulation d'images dans le monde réel.
Le standard Imatag pour un watermarking ultra-robuste
L'approche d'Imatag vise à atteindre un niveau de fiabilité adapté à une vérification à enjeux élevés.
Une exigence centrale est une taux de faux positifs extrêmement faible. Notre seuil de détection est calibré à environ 1 sur 1 000 000 000 000 pour une identification positive. De récentes recherches internes ont confirmé à quel point les seuils stricts sont essentiels, car certaines méthodes de watermarking peuvent produire des faux positifs occasionnels dans certaines conditions.

Un autre principe clé est la liaison sémantique : le watermark doit rester détectable dans le sens essentiel de l'image, même si des éléments périphériques ou stylistiques changent. À cela s'ajoute la résistance aux modifications de routine telles que le recadrage, le retournement ou le réglage de la luminosité, opérations qui peuvent se produire naturellement lors du partage d'images.
Pour renforcer la confiance et la responsabilité, le système est évalué au moyen de tests de résistance approfondis et de critères de référence transparents. Et pour garantir la compatibilité au sein de l'écosystème, le watermarking d'Imatag s'aligne sur des cadres de provenance émergents tels que le C2PA.
Élaboration d'une norme industrielle plus stricte
Les progrès réalisés par les principaux acteurs, notamment des initiatives telles que SynthID, montrent à quelle vitesse le domaine progresse et à quel point les leaders du secteur prennent au sérieux le défi de la provenance et de la sécurité. Pourtant, le défi d'une détection robuste est partagé par tous. Le watermarking ne tiendra ses promesses que s’il répond à des standards forts et vérifiables, capables de résister aux transformations courantes comme aux manipulations adverses.
À l’avenir, la collaboration sera déterminante. Des standards plus solides et partagés bénéficient à tous : plateformes, créateurs, chercheurs, régulateurs et public. Le watermarking invisible est appelé à devenir une couche fondamentale de confiance, à condition de s’appuyer sur des exigences ambitieuses, mesurables et rigoureusement testées.

Vous voulez « voir » un filigrane invisible ?
En savoir plus sur la solution d'IMATAG pour insérer des filigranes invisibles dans votre contenu visuel.
Réservez une démoCes articles peuvent également vous intéresser

Authenticité & Détection d'IA
July 8, 2025
Sécurité du filigrane numérique : le piège open source qui pourrait tout vous coûter

Authenticité & Détection d'IA
May 21, 2025
La Chine encadre les contenus générés par l’IA : vers une nouvelle norme mondiale de transparence ?

Authenticité & Détection d'IA
March 26, 2025
