El requisito legal de etiquetar el contenido generado por IA en virtud de la Ley Europea de Inteligencia Artificial

Autenticidad y detección de IA

April 9, 2024

El requisito legal de etiquetar el contenido generado por IA en virtud de la Ley Europea de Inteligencia Artificial

LECTURA RÁPIDA

<div class="hs-cta-embed hs-cta-marcador de posición simple hs-cta-embed-148431706223"
style="anchura máxima: 100%; altura máxima: 100%; anchura: 170 px; altura: 570,703125 px» data-hubspot-wrapper-cta-id="148431706223">
<a href="https://cta-service-cms2.hubspot.com/web-interactives/public/v1/track/redirect?encryptedPayload=AVxigLJrUZ4Wxh0Qdo01FJ4Q3Oz5oJ8RUjWzxCE%2BkELt17Qi2%2BAAgPkuS8Pt33eRL3Zai2iDrxc%2FuuXDvNXR%2BItXjwgeAhIXwgNyEvtavhEWQ1W%2B3kCeRwLJYI0D0JQDHo%2F0khIj%2FAZrBa0oo%2F%2BIZ6ECmgP4hWoacTzMsQhF5Lrsykdo2Mj93DVdYAiPwA2cdnSRc5KmPlLxe7GX8sRN3ji8mITa6cPIJhWFgcXNP4z9K5TzbvTAVkNT04SmM8LpLg%3D%3D&webInteractiveContentId=148431706223&portalId=4144962" target="_blank" rel="noopener" crossorigin="anonymous">
<img alt="Historia de las marcas de agua digitales Descargue nuestra infografía «La saga invisible de las marcas de agua digitales: un viaje en el tiempo"» loading="lazy» src=» https://no-cache.hubspot.com/cta/default/4144962/interactive-148431706223.png "style="height: 100%; width: 100%; object-fit: fill»
onerror="this.style.display='ninguno'» />
</a>
</div>

Comparte este artículo

__wf_reservado_decorativo__wf_reservado_decorativo__wf_reservado_decorativo

¡Suscríbete al blog!

Me suscribo

Descubra el nuevo requisito de la Ley Europea de Inteligencia Artificial para el etiquetado transparente del contenido generado por la IA. Descubra cómo la tecnología de marcas de agua digitales desempeña un papel clave a la hora de distinguir los medios sintéticos y explore las implicaciones para los proveedores de inteligencia artificial y la lucha contra los deepfakes.

La Ley Europea de Inteligencia Artificial («AI ACT») fue adoptada por el Parlamento Europeo el 13 de marzo y entrará en vigor en mayo de 2024, 20 días después de su publicación en el Diario Oficial de la UE. Las prohibiciones sobre los sistemas de IA que se consideren que plantean «riesgos inaceptables» se aplicarán seis meses después (noviembre de 2024), las normas y obligaciones de gobernanza para los modelos de IA de uso general se aplicarán después de 12 meses (mayo de 2025) y se espera que la implementación completa después de 24 meses (mayo de 2026).

Esta ley se aplica a nivel mundial a todos los sistemas de inteligencia artificial, excluyendo los utilizados para la investigación científica y en el sector militar, siempre que estén disponibles en el territorio de la Unión Europea.

Planteamiento general de la Ley de Inteligencia Artificial

La ley regula los sistemas de IA mediante un enfoque basado en el riesgo, definiendo cuatro niveles de riesgo para los sistemas de IA, cada uno con prohibiciones y obligaciones específicas:

Los cuatro niveles de riesgo definidos por la Ley de IA

Los sistemas de IA generativa se consideran sistemas de riesgo limitado

Entre los diversos sistemas de IA, los sistemas de inteligencia artificial generativa se definen en el artículo 50 (2) como: «Sistemas de IA, incluidos los sistemas de IA de uso general, que generan contenido de tipo sintético, como audio, imágenes, vídeos o texto». Algunos ejemplos de estos sistemas son Project Music GenAI Control de Adobe para la generación de audio, Midjourney para la creación de imágenes, Sora de OpenAI para la producción de vídeo y el generador de texto Claude de Anthropic. Estos sistemas están clasificados como sistemas de inteligencia artificial de riesgo limitado en virtud de la Ley de Inteligencia Artificial y están sujetos a requisitos de transparencia, como la obligación de informar a los usuarios de que la IA ha generado el contenido.

Los modelos de IA generativa más potentes y multimodales (capaces de generar cualquier tipo de contenido), como ChatGPT de OpenAI o Gemini de Google, se consideran sistemas de IA de uso general que podrían generar un riesgo sistémico. Además de las obligaciones de transparencia, están sujetos a evaluaciones detalladas y pruebas contradictorias para evitar cualquier incidente significativo que pueda tener consecuencias adversas, como la producción de contenido ilegal.

Obligación de transparencia: etiquetado obligatorio del contenido generado por IA

Todos los proveedores de sistemas de IA generativa, independientemente de su ubicación, tamaño, potencia o naturaleza, ya sean abiertos (gratuitos y de código abierto) o propietarios, deben cumplir con las obligaciones fundamentales de transparencia. Esto permite al público saber si el contenido se ha generado artificialmente y distinguirlo del contenido auténtico generado por humanos.

El desafío clave es que estos sistemas se pueden usar para crear deepfakes o noticias falsas ultrarrealistas, lo que contribuye a campañas de desinformación a gran escala, al fraude, al robo de identidad o al engaño. Para contrarrestar este fenómeno, la Ley de IA (art. 50 2) exige que «los proveedores de sistemas de IA, incluidos los sistemas GPAI, que generen contenido sintético de audio, imagen, vídeo o texto, deberán garantizar que las salidas del sistema de IA estén marcadas en un formato legible por máquina y detectables como generadas o manipuladas artificialmente. Los proveedores se asegurarán de que sus soluciones técnicas sean eficaces, interoperables, sólidas y fiables en la medida en que sea técnicamente posible, teniendo en cuenta las especificidades y limitaciones de los diferentes tipos de contenido, los costes de implementación y el estado de la técnica generalmente reconocido, según pueda reflejarse en las normas técnicas pertinentes».

Una marca de agua digital obligatoria, eficaz, sólida y confiable

La obligación de transparencia va mucho más allá de una simple declaración que indique «contenido generado por IA», que se puede eliminar fácilmente, y apunta a métodos tecnológicos sólidos y legibles por máquina para mostrar al público de forma segura que el contenido es contenido generado.

El considerando 133 de la Ley de IA establece que «dichas técnicas y métodos deben ser lo suficientemente fiables, interoperables, eficaces y robustos en la medida en que sea técnicamente posible, teniendo en cuenta las técnicas disponibles o una combinación de dichas técnicas, como marcas de agua, identificaciones de metadatos, métodos criptográficos para demostrar la procedencia y la autenticidad del contenido, métodos de registro, huellas dactilares u otras técnicas, según proceda».

La Oficina de IA, creada por la Ley de IA y que se está creando actualmente, llevará a cabo una revisión de vanguardia en este campo y definirá los estándares que todos los proveedores de IA generativa deben seguir estrictamente. Una combinación válida, que actualmente cumple con los estándares más altos, podría ser adoptar el Estándar C2PA, que asocia varios tipos de metadatos exclusivos al contenido (autor, fecha, sistema generativo utilizado, etc.) y lo protege de las alteraciones con una clave criptográfica, y lo asocia a una marca de agua digital sólida, como la de IMATAG, para evitar la eliminación de estos metadatos. De este modo, el contenido queda protegido contra cualquier alteración o eliminación de sus metadatos y permanece perfectamente integrado durante toda su vida útil en el ámbito informativo.

Content Credentials
Estándar C2PA
Etiquetado generado por IA con una marca de agua invisible

Déverrouiller l'Avenir de l'Authentification de Contenu : La Percée d'IMATAG dans le Marquage des Images Générées par IA
El contenido generado también se puede marcar con una marca de agua durante el proceso de generación (leer nuestro artículo)

Sanciones por incumplimiento de la obligación de etiquetado

El incumplimiento de esta obligación de etiquetado se traduce automáticamente en una multa de hasta 15 millones de euros o hasta el 3% de la facturación anual global total lograda en el ejercicio financiero anterior, lo que sea mayor.

El tiempo: el factor crucial contra los deepfakes

Los sistemas de IA de uso general que incluyen funcionalidades de generación de contenido sintético deben cumplir los requisitos antes de mayo de 2025, y todos los demás sistemas antes de mayo de 2026. Este plazo se considera muy tardío, sobre todo porque los avances tecnológicos y la adopción generalizada de sistemas de IA generativos y de uso general, así como el ultrarrealismo del contenido generado, se han acelerado considerablemente en los últimos meses.

La Sra. Anna Ascani, vicepresidenta de la Cámara de Diputados de Italia, compartió recientemente esta preocupación por el retraso en el despliegue de la obligación de etiquetar la IA generativa y está considerando la adopción de una ley nacional para acelerar su despliegue. Esta reacción se produjo en particular en respuesta a una falsificación profunda del portavoz del presidente ucraniano, Volodymyr Zelensky, que se atribuyó la responsabilidad de un ataque terrorista en Moscú, que se extendió por todas las plataformas en línea y puso de relieve una vez más el impacto de la desinformación debido al contenido generado artificialmente.

El decreto presidencial estadounidense del 30 de octubre de 2023, para una inteligencia artificial segura y confiable, prevé el despliegue generalizado de marcas de agua digitales en el contenido generado a partir de principios de 2025, mucho antes de lo que prescribe la Ley Europea de Inteligencia Artificial.

Por su parte, en la Conferencia de Seguridad de Múnich del 16 de febrero de 2024, muchos actores del campo de la IA generativa (como Anthropic, Google, Meta, Microsoft, OpenAI y Stability AI) se comprometieron a»Acuerdo tecnológico para combatir el uso engañoso de la IA en las elecciones de 2024«implementar tecnologías para contrarrestar el contenido dañino generado por la IA destinado a engañar a los votantes y detectar el contenido generado por la IA, en particular mediante el uso de marcas de agua digitales.

En este contexto de emergencia, para facilitar la transición al nuevo marco reglamentario, la Comisión Europea ha lanzado el Pacto sobre la IA, una iniciativa voluntaria que tiene como objetivo apoyar la implementación futura e invita a los desarrolladores de IA de Europa y otros lugares a cumplir por adelantado con las obligaciones de la Ley de IA y a empezar a implementar sus requisitos antes de la fecha límite legal, incluidas las obligaciones de marcar el contenido.

Más allá de la ley: ética

Más allá de las obligaciones legales, ningún proveedor de IA generativa quiere que su nombre esté asociado a una campaña de desinformación, fraude o manipulación de la opinión pública por motivos de imagen, reputación y, en última instancia, viabilidad económica.

El etiquetado del contenido generado desempeña un papel crucial en la lucha contra las falsificaciones y la desinformación, mitigando la sobrecarga de información para los usuarios de Internet al distinguir claramente los materiales auténticos de los generados y apoyando los esfuerzos de alfabetización mediática. Es una cuestión de responsabilidad y ética, como lo puso de relieve recientemente el documento no vinculante resolución de la Asamblea General de la ONU del 21 de marzo de 2024, patrocinado por los Estados Unidos y copatrocinado por 123 países, incluida China, que definitivamente lleva el etiquetado del contenido generado al campo de la ética, antes de que entre en el campo del puro cumplimiento legal.

Proveedores de IA generativa de todos los países, ¡no esperen más para marcar el contenido generado con la tecnología de IMATAG, una de las más sólidas y seguras del mundo!

Obtenga más información sobre la solución de IMATAG para insertar marcas de agua invisibles en su contenido visual.

¿Quieres «ver» una marca de agua invisible?

Obtenga más información sobre la solución de IMATAG para insertar marcas de agua invisibles en su contenido visual.

Reserva una demostración

Estos artículos también pueden interesarle

La innovadora legislación de California: la «Ley de normas de procedencia, autenticidad y marcas de agua de California»

Autenticidad y detección de IA

June 14, 2024

La innovadora legislación de California: la «Ley de normas de procedencia, autenticidad y marcas de agua de California»

Ver más
Desbloqueando el futuro de la autenticación de contenido: el gran avance de IMATAG en la marcación de agua de imágenes generada por IA

Autenticidad y detección de IA

January 29, 2024

Desbloqueando el futuro de la autenticación de contenido: el gran avance de IMATAG en la marcación de agua de imágenes generada por IA

Ver más
Próximas elecciones de 2024 en la UE y los Estados Unidos bajo un imperio de profundas falsificaciones

Autenticidad y detección de IA

October 16, 2023

Próximas elecciones de 2024 en la UE y los Estados Unidos bajo un imperio de profundas falsificaciones

Ver más

¡Suscríbete al blog!

Al enviar este formulario, acepto Política de privacidad de Imatag.

__wf_reservado_decorativo