Authenticité & Détection d'IA
Technologie de suivi des images
October 16, 2023
Prochaines élections européennes et américaines de 2024 sous l'empire des Deep Fakes
LECTURE RAPIDE
<div class="hs-cta-embed hs-cta-simple-placeholder hs-cta-embed-127250935564"
style="largeur maximale : 100 % ; hauteur maximale : 100 % ; largeur : 170 pixels ; hauteur : 300 pixels » data-hubspot-wrapper-cta-id="127250935564">
<a href="https://cta-service-cms2.hubspot.com/web-interactives/public/v1/track/redirect?encryptedPayload=AVxigLJG780n6Gaolzn4nkLXvLqaNiOKQAS72pJmbhN8fC5Aq44UUD0dQi4o9fu7ONSZ%2BwIJsrkynW2EDbHmJ1htI29sSbu8u8ZvdshcQpO%2B3viDhNfADrXbIp8lr0e3FMWrpcZoEldZRHQmQ0TcQgGw7CEOOQ0vS%2F4BPEm3Fpk41btn3lEEcjFx%2B4bwyIBSK8mlgCbUpmymJniHIimIfygj%2FlGXXQ20hkXs36taT4dgZy%2FdgwF%2B7284D6Gz91WerfzGQcUNTMPBXL58Jw%3D%3D&webInteractiveContentId=127250935564&portalId=4144962" target="_blank" rel="noopener" crossorigin="anonymous">
<img alt="RAPPORT EXCLUSIF 150 dirigeants partagent leur point de vue sur les Visual Asset Leaks dans leur entreprise » loading="lazy » src= » https://no-cache.hubspot.com/cta/default/4144962/interactive-127250935564.png "style="height : 100% ; width : 100% ; object-fit : fill »
onerror="this.style.display='aucun' »
</a>
</div>
Partagez cet article
Abonnez-vous au blog !
Je m'abonneAvec l'irruption des contenus générés par l'IA, le phénomène de désinformation ouvre une nouvelle ère, permettant la création et la diffusion de fausses nouvelles multimédia à une échelle, une vitesse et un niveau de réalisme sans précédent. Les prochaines élections européennes et américaines de 2024 seront les premières grandes élections démocratiques à avoir lieu à l'ère des deep fakes alimentés par l'IA. La loi sur les services numériques (DSA), le code de bonnes pratiques de l'UE sur la désinformation (le Code) et des tiers indépendants capables d'authentifier la provenance des contenus sont les outils approuvés par l'UE et les plateformes.
Ce qui rend cette lutte difficile, c'est le fait que la désinformation n'est pas fondamentalement illégale. Il est essentiel de trouver un équilibre délicat entre la sauvegarde de la liberté d'expression et la mise en œuvre de mesures efficaces pour freiner la propagation et l'impact de la désinformation. Cela nécessite une approche judicieuse qui défend les valeurs démocratiques tout en atténuant les effets néfastes des fausses informations.
Les institutions de l'UE sont pleinement conscientes des risques de désinformation et s'efforcent de s'attaquer au phénomène selon une approche globale.
Les quatre angles d'attaque de la loi sur les services numériques contre la désinformation
Le 25 août 2023, le Loi sur les services numériques (« DSA ») est entrée en vigueur pour les très grandes plateformes en ligne (Facebook, Instagram, Pinterest, Snapchat, TikTok, X...) et les très grands moteurs de recherche en ligne (Google search, Bing).
La DSA vise à combattre la désinformation sous 4 angles principaux pour les plateformes en ligne :
- suppression plus rapide des fausses informations manifestement illégales,
- visibilité réduite dans les systèmes de recommandation pour les fausses informations qui ne sont pas considérées comme illégales,
- mettre en place des mesures d'atténuation après analyse de leurs risques spécifiques, afin de lutter contre la propagation de la désinformation et l'utilisation non authentique de leur service et
- des protocoles spécifiques pour lutter contre les contenus susceptibles d'avoir un impact négatif réel ou prévisible sur la sécurité publique et les processus démocratiques/électoraux et ont renforcé les mesures spécifiques en cas de crise, comme les conflits armés existants ou nouveaux, les actes de terrorisme, les catastrophes naturelles ou les pandémies.
Les outils requis par le code de bonnes pratiques de l'UE en matière de désinformation
Outre le DSA, le Code de bonnes pratiques de l'UE en matière de désinformation (« le Code ») est un outil unique en son genre grâce auquel les acteurs concernés du secteur se sont mis d'accord, pour la première fois en 2018, sur des normes d'autorégulation pour lutter contre la désinformation.
Le Code révisé signé le 16 juin 2022 fera partie d'un cadre réglementaire plus large en combinaison avec le DSA. Pour les signataires (très grandes plateformes en ligne et moteurs de recherche), le Code vise à devenir une mesure d'atténuation reconnue dans le cadre corégulateur de la DSA.
Le Code contient 44 engagements et 128 mesures spécifiques.
L'engagement 20 stipule : « Les signataires concernés s'engagent à donner aux utilisateurs les moyens de outils pour évaluer la provenance et modifier l'historique ou l'authenticité ou l'exactitude du contenu numérique. Les signataires concernés développeront des solutions technologiques pour aider les utilisateurs vérifier l'authenticité ou identifier la provenance ou la source du contenu numérique, tels que de nouveaux outils ou protocoles ou de nouvelles normes techniques ouvertes pour la provenance du contenu. »
L'engagement 22 précise : « Les signataires concernés s'engagent à fournir aux utilisateurs des outils pour les aider à prendre des décisions plus éclairées lorsqu'ils rencontrent des informations en ligne susceptibles d'être fausses ou trompeuses, et faciliter l'accès des utilisateurs aux outils et aux informations permettant d'évaluer la fiabilité des sources d'information, tels que les indicateurs de fiabilité pour une navigation en ligne informée, notamment en ce qui concerne les questions de société ou les débats d'intérêt général. Les signataires concernés permettront aux utilisateurs de leurs services d'accéder à des indicateurs de fiabilité (tels que des labels de confiance axés sur l'intégrité de la source et la méthodologie qui sous-tend ces indicateurs) développé par des tiers indépendants, en collaboration avec les médias d'information, y compris les associations de journalistes et les organisations de défense de la liberté des médias, ainsi que des vérificateurs de faits et d'autres entités pertinentes, qui peuvent aider les utilisateurs à faire des choix éclairés. Les signataires concernés donneront aux utilisateurs la possibilité de contenant des signaux relatifs à la fiabilité des sources médiatiques dans les systèmes de recommandation ou dans le fil d'actualités ces signaux dans leurs systèmes de recommandation. »
En résumé, pour enrayer le phénomène de désinformation, il est nécessaire de mettre à la disposition des utilisateurs des outils fiables transparents pour évaluer les informations et il est nécessaire de détecter et d'accroître la visibilité du contenu réel émanant de sources fiables grâce à des outils capables de garantir l'exactitude, l'intégrité et la fiabilité de sa provenance.
S'il semble essentiel d'identifier le contenu généré par l'IA pour aider les utilisateurs à s'y retrouver, il convient d'accorder la même importance à l'identification de contenus authentiques provenant de sources vérifiées et fiables, telles que les contenus d'actualités provenant d'agences de presse, de médias ou d'autres sources faisant autorité.
La Commission européenne a recommandé d'utiliser des outils fournis par des tiers indépendants, mais selon le Centre de transparence, ces engagements sont généralement indiqués comme « non souscrits » ou limités par des initiatives de vérification des faits prises par les signataires du Code.
De quelle manière le filigrane invisible d'un tiers indépendant résoudra-t-il réellement le problème ?
Le meilleur moyen de certifier techniquement un contenu est de le filigraner avec un signal invisible directement à la source (cf. "SynthID de Google DeepMind et l'impératif d'un filigrane complet"). Cette technologie existe depuis de nombreuses années, mais elle a récemment connu des améliorations notables (DeepMind s'associe à Google Cloud pour filigraner les images générées par l'IA | TechCrunch ). Selon OpenAI et Google, un filigrane robuste est la meilleure solution pour certifier le contenu visuel. Le mois dernier, Google a lancé son propre système de filigrane appelé SynthID. Cependant, une limitation importante est évidente : SynthID identifiera exclusivement le contenu généré par l'IA de Google, produit par exemple par Imagen, et uniquement au sein de l'écosystème Google.
Cette limitation n'existe pas lors de l'utilisation d'un tiers indépendant capable de générer un filigrane pour des contenus réels à partir de sources vérifiées, une technologie qui pourrait potentiellement être adoptée par toutes les plateformes en ligne.
L'étiquetage de contenu authentique provenant de sources fiables à l'aide d'un filigrane robuste et invisible présente de nombreux avantages, tant pour le public que pour les plateformes en ligne :
Rétablir la confiance entre les utilisateurs et les plateformes en ligne
Tout d'abord, il est possible de rétablir la confiance entre les utilisateurs et les plateformes en ligne en étiquetant le contenu réel provenant de sources fiables, en plus de l'étiquetage du contenu généré par l'IA et en fournissant aux utilisateurs des outils de réflexion critique. Les utilisateurs peuvent immédiatement visualiser s'il s'agit d'un contenu généré par l'IA, d'un contenu réel, d'un contenu réel manipulé ou faussement attribué, ou d'un contenu non identifié.
Deuxièmement, la possibilité de visualiser un contenu authentique, les métadonnées associées et le contexte d'origine constituerait un avantage majeur pour les utilisateurs et les plateformes en ligne. Les deux pourraient immédiatement identifier une manipulation ou une fausse attribution. Ouvrir la voie à la suppression immédiate par les plateformes en ligne en cas d'illégalité manifeste ou de réduction de la visibilité dans les systèmes de recommandation si elles sont considérées comme des fausses informations « non illégales ».
Un autre avantage pour les très grandes plateformes en ligne et les moteurs de recherche serait de renforcer les mesures d'atténuation requises par la DSA concernant la propagation de la désinformation, tout en aidant à développer de nouvelles stratégies pour lutter contre la désinformation lors de crises politiques et économiques. Récent élections en Slovaquie a fait preuve d'un manque d'efficacité en ce qui concerne les outils anti-fake news déployés par certaines plateformes en ligne.
La lutte contre Infocalypse
L'infocalypse signifie généralement la surcharge imminente de fausses informations.
Le 26 septembre 2023, les principales plateformes en ligne ont rendu compte des six premiers mois dans le cadre du nouveau Code de bonnes pratiques sur la désinformation.
Selon la commissaire Jourova : »La désinformation reste l'un des plus grands risques pour l'espace d'information démocratique européen, y compris en ce qui concerne la guerre de la Russie en Ukraine et les élections. Alors que les Européens se prépareront à se rendre dans les bureaux de vote en 2024, tous les acteurs doivent jouer leur rôle dans la lutte contre la désinformation en ligne et l'ingérence étrangère afin de protéger notre débat en ligne. Le Code s'avère être un exercice utile, mais nous devons tous faire davantage»
La prochaine série de rapports est attendue début 2024 (avec des informations et des données couvrant le second semestre 2023) et devrait fournir des informations supplémentaires sur la mise en œuvre du Code. Ces rapports contiendront également des informations sur la manière dont les signataires préparent et mettent en place des mesures visant à réduire la propagation de la désinformation à l'approche des élections européennes et américaines de 2024, tout en continuant à rendre compte de leurs efforts dans le contexte de la guerre en Ukraine, à laquelle nous pouvons déjà ajouter la guerre en Israël.
Il s'agit d'un appel à étiqueter le contenu réel provenant de sources fiables par filigrane numérique. Si cette mesure est adoptée par les principales plateformes en ligne dans un avenir proche, un ou plusieurs des quatre cavaliers d'Infocalypse pourraient tomber de cheval.
Vous voulez « voir » un filigrane invisible ?
En savoir plus sur la solution d'IMATAG pour insérer des filigranes invisibles dans votre contenu visuel.
Réservez une démoCes articles peuvent également vous intéresser
Authenticité & Détection d'IA
September 19, 2024
Le paysage juridique de l'authenticité des contenus : votre guide des réglementations émergentes
Authenticité & Détection d'IA
July 25, 2024
Mise à jour de l'AI Act : Nouvelles exigences de watermarking pour les contenus générés par l'IA
Authenticité & Détection d'IA
June 14, 2024