Las imágenes creadas por la IA están mejorando exponencialmente, hasta el punto de que muchas personas son incapaces de distinguirlas de la realidad. Falsificaciones, manipulaciones… ¿Cómo se resuelve?
TE PUEDE INTERESAR: ¡Estas extensiones de Google Chrome hacen que ChatGPT sea dominado!
La IA está reinventando el panorama de los medios de comunicación con deepfakes, difuminando la línea entre lo real y lo virtual. Un avance tecnológico unido a un reto ético, que nos empuja a cuestionar la autenticidad en la era digital. Por un lado, gracias a la inteligencia artificial generativa (ChatGPT, DALL-E, Midjourney, Stable Diffusion, etc.), los límites entre lo real y lo virtual se están difuminando, dando lugar a obras mediáticas de un realismo impresionante. Este aumento de la creatividad, impulsado por la IA, promete un mundo rico en innovación y exploración artística. Sin embargo, esta moneda tiene su otra cara: la aparición de los deepfakes. Estas creaciones, manipuladas con una delicadeza increíble, ya sean imágenes, vídeos o pistas de audio, nos sumergen en un auténtico rompecabezas a la hora de detectar su autenticidad.
Frente a los deepfakes, desarrollar el pensamiento crítico es esencial
Estas imágenes o videos falsos siembran problemas en un momento en que estamos más que nunca en la búsqueda de la verdad en estos tiempos difíciles. Ponen en tela de juicio la autenticidad misma de nuestros medios de comunicación. Las implicaciones están lejos de ser triviales: desde la difusión de información falsa hasta la manipulación de la opinión pública, pasando por la extorsión de datos personales sensibles, los abusos son múltiples. Esta forma de medios sintéticos está redefiniendo los contornos de la inteligencia artificial, enfrentándonos a grandes desafíos éticos y morales. Como el percance que sufrió Taylor Swift, que vio cómo videos manipulados sobre ella inundaban la web. Pero entonces, ¿cómo se detectan estos deepfakes?
En primer lugar, se vuelve imperativo cultivar una mente crítica. Antes de reaccionar impulsivamente, sin dar un paso atrás ante la más mínima foto o vídeo que circule por las redes sociales -o incluso que a veces sean recogidos por medios más o menos serios-, merece la pena hacerse preguntas. ¿Qué está en juego? Preservar nuestra capacidad de discernir la realidad en un mundo digital donde las ilusiones son más grandes que la vida. Por ahora, pero esto podría cambiar rápidamente, los deepfakes no son perfectos. Por lo tanto, es necesario cambiar al modo «detective» cuando una imagen o video es impactante o particularmente inusual.
En las imágenes, a menudo hay anomalías en la textura de la piel, en los ojos o en los labios. Las manos también son un buen indicador, así como la posición de los brazos o las piernas en relación con el resto del cuerpo. También puedes subir una imagen para hacer una búsqueda inversa utilizando un buscador (Google ofrece esta opción por ejemplo) para comprobar si partes de la foto no son de otras imágenes y se han fusionado con otros elementos para crear una polémica desde cero.
Los fans de Taylor Swift se han unido para ahogar estos deepfakes. ©Jamie Lamor Thompson / Shutterstock
En los vídeos, el parpadeo irregular (o la ausencia de parpadeo), las distorsiones en los labios o las sombras inconsistentes pueden indicar manipulación. El movimiento natural sigue siendo difícil de imitar a la perfección para las IA: los movimientos bruscos, las transiciones incómodas o las expresiones faciales que no coinciden emocionalmente con el contexto pueden indicar un vídeo deepfake.
Lo mismo ocurre con el sonido. Las imperfecciones en la sincronización de labios o las anomalías en el tono de voz pueden indicar manipulación. Los avances en el campo de los deepfakes de audio son significativos, pero algunas sutilezas siguen siendo difíciles de reproducir fielmente.
Reflejos a adoptar sistemáticamente
Aparte del aspecto visual o sonoro, también vale la pena cuestionar el propósito de compartir una imagen o video en particular. ¿A qué causa sirve? ¿Quién comparte? ¿Cuál es la fuente? Verificar el origen de una imagen o video es fundamental. La búsqueda de la fuente u otras apariciones de la imagen puede ayudar a determinar su autenticidad. Una vez más, las herramientas de verificación inversa de imágenes como Google Imágenes pueden ser útiles.
Los deepfakes a menudo se esconden detrás de logotipos (falsos) de medios de comunicación conocidos. BFMTV, TF1, LCI, CNN… Los falsificadores se esconden detrás de nombres serios para aprovecharse de su reputación y facilitar la circulación de sus falsificaciones visuales. Así que no dudes en volver a la fuente: ¿este vídeo supuestamente de FranceInfo TV está realmente presente en su sitio web o en sus redes sociales? Si no es así, ten cuidado.
Uso de herramientas de detección especializadas: ¿es confiable?
Cada vez más, las empresas detrás de la inteligencia artificial están tratando de desarrollar herramientas para detectar estos deepfakes. Pero los resultados son bastante desiguales. Sin embargo, estas herramientas son esenciales en la lucha contra la desinformación y la manipulación de los medios de comunicación. Varias empresas e institutos de investigación están trabajando en soluciones avanzadas para detectar la manipulación. Estos son algunos ejemplos notables:
Microsoft Video Authenticator: La compañía de Redmond ha desarrollado una herramienta capaz de analizar fotos o vídeos y proporcionar una puntuación que indica la probabilidad de que sean manipulados. Esta herramienta utiliza técnicas de aprendizaje automático para identificar artefactos sutiles que pueden no ser perceptibles para el ojo humano.
Deepware Scanner: Se trata de una aplicación diseñada para detectar deepfakes buscando signos de manipulación. Utiliza algoritmos de inteligencia artificial para evaluar la probabilidad de que la IA genere un vídeo.
Iniciativa de autenticidad de contenido (CAI) de Adobe: Si bien el objetivo principal de Adobe CAI es crear un marco para autenticar contenido digital, también están trabajando en tecnologías para detectar la manipulación, incluidos los deepfakes. La iniciativa tiene como objetivo aumentar la transparencia y proporcionar a los consumidores información sobre el origen y el estado de los contenidos digitales.
También en el sector de la investigación académica: instituciones académicas de todo el mundo están llevando a cabo investigaciones para mejorar la detección de deepfakes. Por ejemplo, la Universidad de California, Berkeley, y otras instituciones han desarrollado métodos basados en IA para identificar videos manipulados mediante la detección de inconsistencias en los movimientos faciales o gestos que no son naturales.
Sin embargo, es muy probable que los errores básicos de las IA generativas actuales desaparezcan en un futuro próximo. Entonces será muy complicado identificar los deepfakes mediante un simple «escaneo» en busca de anomalías. Al mismo tiempo, empresas como Adobe, OpenAI, Stability y Google están trabajando en un sistema de marca de agua estandarizado para identificar visualmente una creación (o modificación) por parte de la IA. Incluso si es obvio que siempre habrá soluciones alternativas para estas salvaguardas…