top of page

Deepfakes: el desafío de la desinformación en la era de la IA




En un mundo donde la tecnología avanza a un ritmo vertiginoso, la creación de contenido engañoso nunca ha sido tan sencilla. Hoy, con acceso a inteligencia artificial, algunas imágenes y software gratuito, cualquier persona puede fabricar eventos que nunca ocurrieron y hacerlos pasar por realidad.


La gran pregunta es: ¿Será posible distinguir entre lo real y lo artificial en el futuro? Exploremos el impacto de los deepfakes, su potencial y las estrategias para mitigar su mal uso.



¿Qué son los deepfakes y cómo funcionan?


El término deepfake surge de la combinación de "deep learning" (aprendizaje profundo) y "fake" (falso). Se popularizó en 2017 cuando un usuario de Reddit comenzó a experimentar con esta tecnología. Otros términos relacionados incluyen face swapping y clonación de voz.


Ya en 2018 se daban los primeros ejemplos de deepfake cuando el director Jordan Peele intervino un video de Barack Obama "diciendo" cosas que nunca dijo. Este video del expresidente de EE.UU. Barack Obama se hizo viral. En él, parecía decir frases que nunca pronunció. El objetivo del director tenía como objetivo demostrar lo fácil que es manipular la realidad con esta tecnología.

Otros ejemplos conocidos son:


  • El Papa Francisco con una chaqueta puffer.


  • El "deeptomcruise" de TikTok.


  • El escándalo de la princesa Diana: Un deepfake de la princesa Diana en el que "hablaba" sobre su vida y su supuesta supervivencia circuló en redes sociales, generando gran controversia.


    Y numerosos casos de políticos de interés internacional


  • El video falso de Mark Zuckerberg: En 2019, apareció un video donde el CEO de Meta, Mark Zuckerberg, aparentemente hablaba sobre cómo Facebook "controla el futuro gracias a los datos de los usuarios". Era un deepfake diseñado para demostrar el peligro de esta tecnología.


  • El deepfake de Vladimir Putin "anunciando" una rendición falsa: En 2022, un video deepfake del presidente ruso Vladimir Putin fue difundido, en el que supuestamente anunciaba una rendición en la guerra de Ucrania.


  • El falso discurso de Volodymyr Zelensky: También en 2022, un video manipulado del presidente ucraniano Volodymyr Zelensky lo mostraba "ordenando" a sus tropas rendirse, lo que fue rápidamente desmentido.



El auge de los deepfakes


La cantidad de incidentes de fraude con deepfake aumentó 10 veces de 2022 a 2023, según un estudio de la plataforma de verificación de identidad Sumsub. Este crecimiento preocupa a los expertos, especialmente por su impacto en las elecciones y la desinformación.


En enero de 2024, NBC News reportó el primer uso conocido de un deepfake de IA en una campaña presidencial: una llamada robótica imitó la voz del presidente Joe Biden para influir en votantes.



¿Qué tan fácil es crear un deepfake?


Depende del nivel de realismo buscado. Para videos simples, aplicaciones como iFace son suficientes. Sin embargo, los deepfakes sofisticados requieren:


  • Entrenar un modelo de IA: analizar miles de imágenes, audios y videos de la persona objetivo para replicar sus rasgos.


  • Sintetizar el contenido falso: la IA genera imágenes y audios que imitan fielmente al individuo.


A medida que esta tecnología evoluciona, la creación de deepfakes de alta calidad se vuelve más accesible, desafiando los esfuerzos por detectarlos.


La lucha contra los deepfakes


Regular una tecnología tan avanzada es un reto, pero algunos gobiernos y empresas están tomando medidas:


  • Estados Unidos: Para marzo de 2024, 43 estados habían presentado o aprobado leyes para regular los deepfakes en elecciones.


  • Reino Unido: La Ley de Seguridad Online prohíbe la difusión de imágenes manipuladas sin consentimiento.


  • Unión Europea: La Ley de Inteligencia Artificial exige que los deepfakes sean etiquetados como contenido generado artificialmente.


Empresas tecnológicas:


  • Google lanzó una herramienta de marca de agua para identificar imágenes creadas por IA.


  • Meta, OpenAI y otras 20 empresas firmaron un acuerdo para detectar y etiquetar contenido engañoso.


  • Adobe, Microsoft y Sony, junto con Google, trabajan en "credenciales de contenido" para autenticar material digital.


  • OpenAI prohíbe el uso de figuras públicas en sus generadores de IA.



Cuando la verdad puede fabricarse con solo pulsar un botón, la responsabilidad de distinguir la realidad del engaño recae en cada usuario. Mientras gobiernos y empresas intentan ponerse al día, es crucial desarrollar un pensamiento crítico y cuestionar el contenido que consumimos.

La IA es una herramienta poderosa, y su impacto dependerá del uso que decidamos darle.

No te pierdas otro artículo

Suscribirse a Latam News

¡Gracias por tu mensaje!

bottom of page