Los videos suelen ser grandes protagonistas de las campañas de desinformación durante las elecciones y, de cara al comienzo de la carrera electoral, es necesario estar atento a los posibles contenidos falsos que puedan circular. Junto con el avance de la inteligencia artificial, suele hablarse de los deepfakes y de los videos manipulados. Pero ¿cuál es la diferencia? ¿Y a qué tenemos que estar atentos para detectarlos?
Te lo contamos en esta nota.
Qué es un deepfake
Los deepfakes son videos generados sintéticamente con tecnología basada en inteligencia artificial con el objetivo de crear secuencias falsas pero realistas, en las que se busca modificar la apariencia física e incluso la voz de las personas y hacerles decir o hacer algo que nunca dijeron o hicieron.
El término deepfake proviene de la combinación de las expresiones deep learning (aprendizaje profundo, en inglés) y fake (falso, en inglés), y denota, justamente, algo falso que es resultado de la tecnología de aprendizaje profundo.
El problema de los deepfakes es que pueden utilizarse para distorsionar discursos de figuras políticas, como ya ha sucedido en diversas ocasiones. Ocurrió, por ejemplo, con el presidente de Ucrania, Volodímir Zelenski, con los Lula da Silva y Jair Bolsonaro durante las elecciones presidenciales en Brasil de 2022, y con el ex presidente estadounidense Donald Trump.
La técnica del deepfake, muy utilizada para producir contenidos sexuales no consentidos, consiste en recopilar cientos de imágenes de una persona y enseñarle a un programa a interpretar sus distintos modismos para poder adaptarlos a distintas situaciones. En estos videos (1 y 2) se explica en detalle (y se alerta sobre) la técnica, utilizando un deepfake del presidente estadounidense Obama con la voz de Jordan Peele y otro del actor Tom Cruise.
En la Argentina aún no se han viralizado deepfakes desinformantes y virales en torno a la política, aunque sí se han producido algunos con fines humorísticos, como la recreación del fallecido actor y empresario Ricardo Fort para la presentación de la nueva serie documental “El comandante”, a cargo de Sebastián Vaggi, quien maneja el canal de YouTube “@deepfakesar”. Otro caso fue el deepfake que ubica a Messi cantando con Bizarrap en lugar del cantante Duki.
De todas maneras, la inteligencia artificial avanza cada vez más rápido y el desafío para la detección de desinformaciones es cada vez mayor. Algunos videos deepfake elaborados pueden llevar semanas de trabajo, pero otros pueden hacerse con aplicaciones disponibles en el celular, como Reface App o Wombo.
“Si observamos la evolución exponencial de la IA, tenemos un desafío monumental por delante, porque cada vez resulta más sencillo acceder a estas herramientas, lo que supone simplificar la producción y reproducción de contenido falso”, planteó Juan Corvalán, cofundador y director del Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la UBA.
A su vez, Corvalán, quien junto a su equipo de trabajo y como parte de un ejercicio armó un deepfake de él y Bill Gates, explicó que “los cada vez mejores deepfakes nos muestran que, cuanto más sofisticada es la batalla entre las inteligencias artificiales es más difícil distinguir imágenes o videos falsos de los que son reales”.
No es necesario que sea deepfake para que sea falso
Durante las campañas electorales es común encontrar videos editados en su duración o velocidad que no necesariamente son deepfakes pero que también desinforman. En diálogo con Chequeado -medio coordinador junto con AFP de Reverso-, Corvalán explicó que un video fake puede producirse sin el uso de inteligencia artificial.
“El deepfake es un contenido creado con técnicas de inteligencia artificial. Si se trata de ralentizar un video ya existente, hablamos de una pieza manipulada digitalmente, no de un deepfake”, dijo a Reverso, en la misma línea, Pedro Noel, ex periodista de First Draft, una organización que trabajaba contra la desinformación a nivel global.
Fue el caso de un video que circuló en la campaña de las elecciones generales de 2019, en el que la entonces ministra de Seguridad de la Nación -y actual precandidata a presidenta de Juntos por el Cambio-, Patricia Bullrich, parecía borracha. En realidad, el video había sido ralentizado.
Una situación similar se repitió en 2022, cuando circuló un video del presidente Alberto Fernández (Frente de Todos) en el que parecía también borracho. De nuevo, las imágenes habían sido manipuladas y se trataba de una versión ralentizada del video original, no de un deepfake.
Durante las elecciones, también se suele sacar los videos de contexto, es decir, se toman de otro momento y de otro lugar para ilustrar algún otro suceso, o se editan para que parezcan incompletos o para agregar segmentos que originalmente no existían.
Cómo identificar un deepfake
Cada vez es más complejo para el ojo humano detectar un deepfake o incluso darse cuenta de si un video está manipulado con técnicas comunes, ya que las técnicas de engaño cada vez son mejores y llevan menos tiempo de producción. Pero sí hay algunas recomendaciones a seguir. En primer lugar, es aconsejable hacer una búsqueda inversa del contenido para encontrar si algún sitio legítimo publicó más información sobre ese video que pueda ayudar a encontrar su origen.
Además, para detectar un deepfake, el MIT Media Lab, un laboratorio dentro de la Escuela de Arquitectura y Planificación en el Instituto de Tecnología de Massachusetts, aconseja prestar atención a la cara de quien aparece en la grabación y hacerse algunas preguntas: “¿La piel parece demasiado suave o demasiado arrugada? ¿El envejecimiento de la piel es similar al del cabello y los ojos?”.
También es útil fijarse en los ojos, las cejas, los anteojos y la iluminación, además de si las sombras están donde deben estar y si la persona parpadea demasiado o muy poco. Hay que prestar atención al vello facial o a la falta del mismo, y observar los movimientos de los labios y si están sincronizados con la voz.
En diálogo con Chequeado, Corvalán apeló a la capacidad crítica de las personas e invitó a sospechar de los contenidos que se encuentran en redes sociales, especialmente cuando se trata de “mensajes políticos o información sobre sucesos en el mundo real que tienen impacto institucional”. Además, propone que quienes publiquen contenido deepfake lo aclaren de antemano para que los usuarios no caigan en engaños.
Esta nota es parte de Reverso, el proyecto periodístico colaborativo coordinado por Chequeado y AFP que une a medios y empresas de tecnología para intensificar la lucha contra la desinformación durante la campaña electoral.
Las vías de contacto para sumarse son:
- por mail a info@chequeado.com
- por WhatsApp
- y /ReversoAr en todas las redes.