Tecnología de seguimiento de imágenes
June 22, 2020
Cómo detectar deepfakes utilizando técnicas forenses de medios
LECTURA RÁPIDA
<div class="hs-cta-embed hs-cta-simple-placeholder hs-cta-embed-169954082563"
style="max-width:100%; max-height:100%; width:170px;height:380px" data-hubspot-wrapper-cta-id="169954082563">
<a href="https://cta-service-cms2.hubspot.com/web-interactives/public/v1/track/redirect?encryptedPayload=AVxigLL9jv4hUZa1qo0105eAY3IdyCUFiG5fFj1yany49hVNDIOOtGdvywGkDU9Gp7GJb339zdfHr2e15xHlVynlum0%2FhkFGbac2nAMZppe2UCp8mygliwHLWZzZfwxSPXFjolk4N7ZHUr98KzmoElybC2l2QjI2iAbzEr5jMiEZN91lgAxvy9eiruEAb63yhxTm&webInteractiveContentId=169954082563&portalId=4144962" target="_blank" rel="noopener" crossorigin="anonymous">
<img alt="See The Unseen! Book a 15-Minute Demo to Discover IMATAG's Invisible Watermarks. " loading="lazy" src="https://no-cache.hubspot.com/cta/default/4144962/interactive-169954082563.png" style="height: 100%; width: 100%; object-fit: fill"
onerror="this.style.display='none'" />
</a>
</div>
Comparte este artículo
¡Suscríbete al blog!
Me suscriboEl juego sin fin de deepfake, anti-deepfake y anti-anti-deepfake.
¿Qué es deepfake?
Deepfake es la contracción de «aprendizaje profundo» y «noticias falsas». Se refiere a la creación de contenido multimedia falso (imágenes, vídeo, sonido). Contenido que no son grabaciones de escenas o eventos físicos reales. Solía llamarse efectos especiales o imágenes generadas por computadora. Sin embargo, para combinar lo antiguo con lo nuevo, se le cambió el nombre para darle un toque más moderno, al tiempo que incluía la tan temida «Inteligencia Artificial».
¿No hay nada nuevo bajo el sol, entonces?
Sí, dos puntos críticos.
Las herramientas están democratizadas y se encuentran fácilmente en Internet
Se han desarrollado algoritmos extremadamente complicados y precisos en el laboratorio y ahora están disponibles como código abierto. Moviendo los labios de David Beckham para sincronizarlos con un texto, hacer que Barack Obama diga cualquier cosa y animando imágenes fijas para revivir a Marylin Monroe ahora es accesible para casi cualquier persona.
Además, si sigue siendo demasiado complicado, se pueden contratar fácilmente a deepfakers en Internet que harán el trabajo a 20 dólares por vídeo.
El proceso es, sobre todo, no colaborativo
Los efectos especiales de Hollywood tienen la inmensa ventaja de producirse en un entorno colaborativo. Se colocan sensores en los cuerpos de los actores que han sido escaneados para tener el modelo 3D más fiel posible. En resumen, todo está hecho para facilitar la tarea de postproducción.
Evidentemente, Vladimir Putin nunca consintió en que se hicieran los deepfakes en los que aparece.
Los expertos aún pueden percibir imperfecciones en estos deepfakes, pero su realismo mejora a gran velocidad. Ya no basta con verlo para creerlo; ya no puedes confiar en lo que ves en Internet. Los periodistas están petrificados ante la idea de publicar deepfakes sin su conocimiento, lo que arruinaría su credibilidad. Algunos predicen el apocalipsis en el mundo de los medios de comunicación.
¿Cuáles son las herramientas de investigación para combatir el deepfake?
Media Forensics es la investigación de los contenidos digitales: ¿son reales o falsos? Al igual que Sherlock Holmes, a veces lo único que se necesita es una lupa: ¿por qué Barack Obama nunca lo hace parpadear en este vídeo? ¿Por qué los bordes de sus ojos y boca están borrosos cuando el resto de su rostro está despejado? Incluso cuando la edición y los efectos especiales no se pueden ver a simple vista, las herramientas de imágenes digitales pueden identificar marcas invisibles a simple vista. Las formas específicas de generar deepfakes dejan patrones característicos en los valores de los píxeles o, por el contrario, no dejan las mismas huellas que el sensor de una cámara digital.
Anti-AntiDeepfake, ¿hasta dónde llegará la respuesta?
Es un juego sin fin del gato y el ratón, la policía y el ladrón: si sé que su herramienta forense detecta la presencia o la ausencia de tales o cuales rastros en mis deepfakes, los pasaré a mi herramienta antideepfake para eliminarlos o insertarlos artificialmente. Y así sucesivamente... es de esperar largas series de artículos científicos en los que uno bloquea los avances del otro, lo que bloquea los resultados anteriores, etc. No será fascinante (aquí está la opinión del científico).
¿Quién del gato o del ratón ganará al final?
¡Esa es la cuestión! Aún no lo sabemos, y ¿Lo sabremos alguna vez? ?
Céntrese en dos enfoques contra la falsificación profunda
Vamos a ilustrar dos enfoques específicos contra el deepfake que nos gustan:
La búsqueda de la obra original
Algunas falsificaciones profundas, especialmente los fotomontajes, utilizan y desvían contenido original. Las manipulaciones son evidentes cuando tenemos ante nosotros contenido original y contenido manipulado. De ahí la idea de encontrar contenido original con un buscador como Google Image.
Sí, pero ¿cómo puedo certificar que he encontrado correctamente la imagen original?
Aquí es donde marca de agua invisible actúa como un sello para dar fe de la originalidad del contenido. ¿Quién lo crea y cuándo? Lo hacen agencias de noticias acreditadas y confiables (Associated Press, Reuters, NY Times, etc.) después de examinar minuciosamente el contenido. Otros ofrecen un repositorio de imágenes auténtico certificado. Agregue a eso la idea de un registro descentralizado y aparece otra palabra de moda: cadena de bloques.
Análisis forense activo
Recrear la cadena de creación de una imagen desde el paso de la luz a través de la lente de una cámara hasta el archivo jpg final es complicado.
Sobre todo porque cada fabricante tiene su propia receta de cocción, cada modelo de cámara o software de procesamiento tiene sus ajustes, etc.
Y, por último, la inteligencia artificial y sus redes neuronales profundas han reemplazado recientemente las cadenas de procesamiento por procesos un tanto opacos.
Es difícil saber si es normal o no observar la presencia o ausencia de rastros, especialmente cuando se han eliminado los metadatos EXIF. A menos que los cree deliberadamente en cadenas de procesamiento «oficiales». Esta es la idea clave de un artículo científico que Pawel Korus y Nasir Memon, de la Escuela de Ingeniería de Tandon de la Universidad de Nueva York, presentarán la semana próxima en la Conferencia Internacional sobre Visión Artificial del IEEE (ICCV 2019). Este artículo está de moda actualmente en la web.
Los autores proponen entrenar dos redes neuronales profundas: la primera convierte una imagen de «sensor sin procesar» (formato RAW) en una imagen de buena calidad para que la segunda red pueda detectar los rastros de manipulación (compresión JPEG, reescalado, etc.).
La primera red facilita la tarea forense de la segunda: una buena idea académica que supone que todos los fabricantes de cámaras implementarán este algoritmo. Además, los intrusos no podrán entrenar una red neuronal que pueda destruir este trabajo forense en curso. El juego del gato y el ratón, la policía y el ladrón continúa...
EVALUACIÓN DE SU SOLUCIÓN DE MONITOREO DE CONTENIDO
Encontrar la mejor solución para rastrear sus imágenes y vídeos digitales en la web.
Descargar libro electrónicoEstos artículos también pueden interesarle
Tecnología de seguimiento de imágenes
April 9, 2018
6 Ejemplos de usos de la marca de agua digital
Tecnología de seguimiento de imágenes
August 1, 2023
8 Ejemplos de uso de marcas de agua forenses para la protección de imágenes
Tecnología de seguimiento de imágenes
June 15, 2020