Authenticité & Détection d'IA
April 9, 2024
Loi européenne sur l'IA : étiquetage obligatoire pour le contenu généré par l'IA
LECTURE RAPIDE
<div class="hs-cta-embed hs-cta-simple-placeholder hs-cta-embed-148431706223"
style="largeur maximale : 100 % ; hauteur maximale : 100 % ; largeur : 170 pixels ; hauteur : 570,703125 px » data-hubspot-wrapper-cta-id="148431706223">
<a href="https://cta-service-cms2.hubspot.com/web-interactives/public/v1/track/redirect?encryptedPayload=AVxigLJrUZ4Wxh0Qdo01FJ4Q3Oz5oJ8RUjWzxCE%2BkELt17Qi2%2BAAgPkuS8Pt33eRL3Zai2iDrxc%2FuuXDvNXR%2BItXjwgeAhIXwgNyEvtavhEWQ1W%2B3kCeRwLJYI0D0JQDHo%2F0khIj%2FAZrBa0oo%2F%2BIZ6ECmgP4hWoacTzMsQhF5Lrsykdo2Mj93DVdYAiPwA2cdnSRc5KmPlLxe7GX8sRN3ji8mITa6cPIJhWFgcXNP4z9K5TzbvTAVkNT04SmM8LpLg%3D%3D&webInteractiveContentId=148431706223&portalId=4144962" target="_blank" rel="noopener" crossorigin="anonymous">
<img alt="Histoire du filigrane numérique Téléchargez notre infographie « La saga du filigrane numérique invisible : un voyage dans le temps » loading="lazy » src= » https://no-cache.hubspot.com/cta/default/4144962/interactive-148431706223.png "style="height : 100 % ; width : 100 % ; object-fit : fill »
onerror="this.style.display='aucun' »
</a>
</div>
Partagez cet article
Abonnez-vous au blog !
Je m'abonneDécouvrez la nouvelle exigence de la loi européenne sur l'IA en matière d'étiquetage transparent du contenu généré par l'IA. Découvrez comment la technologie de filigrane numérique joue un rôle clé dans la distinction des médias synthétiques, et explorez les implications pour les fournisseurs d'IA et la lutte contre les deepfakes.
La loi européenne sur l'intelligence artificielle (« LOI SUR L'IA ») a été adoptée par le Parlement européen le 13 mars et entrera en vigueur en mai 2024, 20 jours après sa publication au Journal officiel de l'UE. Les interdictions visant les systèmes d'IA considérés comme présentant des « risques inacceptables » seront appliquées six mois plus tard (novembre 2024), les règles de gouvernance et les obligations relatives aux modèles d'IA à usage général s'appliqueront après 12 mois (mai 2025), et la mise en œuvre complète est attendue après 24 mois (mai 2026).
Cette loi s'applique globalement à tous les systèmes d'intelligence artificielle, à l'exception de ceux utilisés pour la recherche scientifique et dans le secteur militaire, tant qu'ils sont disponibles sur le territoire de l'Union européenne.
[Lisez aussi la mise à jour de cet article : Mise à jour de l'AI Act : nouvelles exigences de watermarking pour les contenus générés par IA ]
Approche générale de l'AI ACT
La loi réglemente les systèmes d'IA selon une approche basée sur les risques, définissant quatre niveaux de risque pour les systèmes d'IA, chacun étant assorti d'interdictions et d'obligations spécifiques :
Les systèmes d'IA générative sont considérés comme des systèmes à risque limité
Parmi les différents systèmes d'IA, les systèmes d'intelligence artificielle générative sont définis à l'article 50 (2) comme suit : « Les systèmes d'IA, y compris les systèmes d'IA à usage général, qui génèrent du contenu de type synthétique tel que du son, des images, des vidéos ou du texte ». Parmi ces systèmes, citons Project Music GenAI Control d'Adobe pour la génération audio, Midjourney pour la création d'images, Sora d'OpenAI pour la production vidéo et le générateur de texte Claude d'Anthropic. Ces systèmes sont classés comme des systèmes d'intelligence artificielle à risque limité en vertu de la loi sur l'IA et sont soumis à des exigences de transparence, telles que l'obligation d'informer les utilisateurs que l'IA a généré le contenu.
Les modèles d'IA générative les plus puissants et les plus multimodaux (capables de générer tout type de contenu), tels que ChatGPT d'OpenAI ou Gemini de Google, sont considérés comme des systèmes d'IA à usage général susceptibles d'entraîner un risque systémique. Outre les obligations de transparence, ils sont soumis à des évaluations détaillées et à des tests contradictoires afin de prévenir tout incident significatif susceptible d'avoir des conséquences négatives, comme la production de contenu illégal.
Obligation de transparence : étiquetage obligatoire du contenu généré par l'IA
Tous les fournisseurs de systèmes d'IA générative, indépendamment de leur localisation, de leur taille, de leur puissance ou de leur nature, qu'ils soient ouverts (gratuits et open source) ou propriétaires, doivent se conformer à des obligations de transparence fondamentales. Ils permettent au public de savoir si le contenu a été généré artificiellement et de le distinguer du contenu authentique généré par l'homme.
Le principal défi est que ces systèmes peuvent être utilisés pour créer des deepfakes ou de fausses nouvelles ultra-réalistes, contribuant ainsi à des campagnes de désinformation à grande échelle, à la fraude, à l'usurpation d'identité ou à la tromperie. Pour contrer ce phénomène, la loi sur l'IA (art. 50 2) stipule que « les fournisseurs de systèmes d'IA, y compris les systèmes GPAI, générant du contenu audio, graphique, vidéo ou textuel de synthèse, doivent veiller à ce que les sorties du système d'IA soient marquées dans un format lisible par machine et détectables comme étant générées ou manipulées artificiellement. Les fournisseurs veillent à ce que leurs solutions techniques soient efficaces, interopérables, robustes et fiables dans la mesure où cela est techniquement faisable, en tenant compte des spécificités et des limites des différents types de contenu, des coûts de mise en œuvre et de l'état de l'art généralement reconnu, tel que cela peut être reflété dans les normes techniques pertinentes. »
Un filigrane numérique obligatoire, efficace, robuste et fiable
L'obligation de transparence va bien au-delà d'une simple déclaration indiquant « un contenu généré par l'IA », qui peut être facilement supprimé, et cible des méthodes technologiques robustes et lisibles par machine pour montrer en toute sécurité au public que le contenu est un contenu généré.
Le considérant 133 de la loi sur l'IA stipule que « ces techniques et méthodes devraient être suffisamment fiables, interopérables, efficaces et robustes dans la mesure où cela est techniquement possible, en tenant compte des techniques disponibles ou d'une combinaison de ces techniques, telles que les filigranes, les identifications de métadonnées, les méthodes cryptographiques pour prouver la provenance et l'authenticité du contenu, les méthodes d'enregistrement, les empreintes digitales ou d'autres techniques, selon le cas ».
Le Bureau de l'IA, créé par la loi sur l'IA et en cours de mise en place, procédera à un examen de pointe dans ce domaine et définira les normes que tous les fournisseurs d'IA générative doivent suivre strictement. Une combinaison valide, actuellement au plus haut niveau, pourrait être d'adopter le Norme C2PA, qui associe différents types de métadonnées propres au contenu (auteur, date, système générateur utilisé, etc.) et le protège des modifications à l'aide d'une clé cryptographique, et l'associe à un filigrane numérique robuste, tel que celui d'IMATAG, pour empêcher la suppression de ces métadonnées. Le contenu est alors protégé contre toute modification ou suppression de ses métadonnées et reste parfaitement intégré tout au long de sa vie dans la sphère de l'information.
Sanctions en cas de non-respect de l'obligation d'étiquetage
Le non-respect de cette obligation d'étiquetage entraîne automatiquement une amende pouvant aller jusqu'à 15 millions d'euros ou jusqu'à 3 % du chiffre d'affaires annuel mondial total réalisé au cours de l'exercice précédent, le montant le plus élevé étant retenu.
Le temps : le facteur crucial contre les deepfakes
Les systèmes d'IA à usage général qui incluent des fonctionnalités de génération de contenu synthétique doivent être conformes avant mai 2025, et tous les autres systèmes d'ici mai 2026. Ce calendrier est considéré comme très tardif, d'autant que les développements technologiques et l'adoption généralisée de systèmes d'IA génératifs et polyvalents, ainsi que l'ultra-réalisme du contenu généré, se sont considérablement accélérés ces derniers mois.
Cette inquiétude concernant le calendrier de déploiement tardif de l'obligation d'étiquetage génératif de l'IA a récemment été partagée par Mme Anna Ascani, vice-présidente de la Chambre des députés italienne, qui envisage l'adoption d'une loi nationale pour accélérer son déploiement. Cette réaction faisait notamment suite à un deepfake du porte-parole du président ukrainien Volodymyr Zelensky revendiquant la responsabilité d'un attentat terroriste à Moscou, qui s'est répandu sur toutes les plateformes en ligne, soulignant une fois de plus l'impact de la désinformation due au contenu généré artificiellement.
Le décret présidentiel américain du 30 octobre 2023, pour une intelligence artificielle sûre, sécurisée et fiable, prévoit le déploiement généralisé du filigrane numérique du contenu généré à partir du début de 2025, bien avant ce que prescrit la loi européenne sur l'IA.
De leur côté, lors de la conférence de Munich sur la sécurité du 16 février 2024, de nombreux acteurs du domaine de l'IA générative (tels que Anthropic, Google, Meta, Microsoft, OpenAI et Stability AI) se sont engagés à Un accord technologique pour lutter contre l'utilisation trompeuse de l'IA lors des élections de 2024 « déployer des technologies pour contrer les contenus dangereux générés par l'IA visant à tromper les électeurs et pour détecter les contenus générés par l'IA, notamment à l'aide de filigranes numériques.
Dans ce contexte d'urgence, afin de faciliter la transition vers le nouveau cadre réglementaire, la Commission européenne a lancé le Pacte sur l'IA, une initiative volontaire qui vise à soutenir la mise en œuvre future et invite les développeurs d'IA d'Europe et d'ailleurs à se conformer à l'avance aux obligations de la loi sur l'IA et à commencer à mettre en œuvre ses exigences avant la date limite légale, y compris en ce qui concerne les obligations en matière de filigrane de contenu.
Au-delà de la loi : l'éthique
Au-delà des obligations légales, aucun fournisseur d'IA générative ne souhaite que son nom soit associé à une campagne de désinformation, à une fraude ou à une manipulation de l'opinion publique pour des raisons d'image, de réputation et, en fin de compte, de viabilité économique.
L'étiquetage du contenu généré joue un rôle crucial dans la lutte contre les deepfakes et la désinformation, en atténuant la surcharge d'informations pour les internautes en distinguant clairement les contenus authentiques des contenus générés et en soutenant les efforts d'éducation aux médias. C'est une question de responsabilité et d'éthique, comme l'a récemment souligné le document non contraignant résolution de l'Assemblée générale des Nations Unies du 21 mars 2024, sponsorisé par les États-Unis et coparrainé par 123 pays, dont la Chine, qui inscrit définitivement l'étiquetage du contenu généré dans le domaine de l'éthique, avant d'entrer dans le domaine de la pure conformité légale.
Fournisseurs d'IA générative de tous les pays, n'attendez pas pour marquer votre contenu généré grâce à la technologie d'IMATAG, l'une des plus robustes et des plus sécurisées au monde !
Vous voulez « voir » un filigrane invisible ?
En savoir plus sur la solution d'IMATAG pour insérer des filigranes invisibles dans votre contenu visuel.
Réservez une démoCes articles peuvent également vous intéresser
Authenticité & Détection d'IA
September 19, 2024
Le paysage juridique de l'authenticité des contenus : votre guide des réglementations émergentes
Authenticité & Détection d'IA
July 25, 2024
Mise à jour de l'AI Act : Nouvelles exigences de watermarking pour les contenus générés par l'IA
Authenticité & Détection d'IA
June 14, 2024