Ver pero no creer: el impacto de los deepfakes en nuestra percepción de la realidad 👀

Publicado por Adrien,
Fuente: The Conversation bajo licencia Creative Commons
Otros Idiomas: FR, EN, DE, PT
Por Stéphanie Gauttier & Sylvie Blanco - Grenoble École de Management (GEM)

Los trucos realizados gracias a las inteligencias artificiales distorsionan nuestra visión de la realidad, afectando nuestros comportamientos como consumidores y ciudadanos.


Deepfake burdo de Donald Trump arrestado por las fuerzas policiales.

En 2022, la televisión ucraniana, hackeada, emitió un hipertrucaje (o deepfake) del presidente ucraniano Zelensky anunciando que rendía las armas, lo que podría haber transformado la realidad del campo de batalla.

En mayo de 2023, una imagen que representaba el Pentágono con una nube de humo provocó una caída del 0,29 % en los índices bursátiles del S&P500, requiriendo un desmentido oficial del ministro de Defensa estadounidense.

En Hong Kong, un empleado transfirió 25 millones de dólares pensando que seguía órdenes de los directores de su empresa con quienes había tenido una videollamada. En realidad, nunca había tenido a ningún humano frente a él.

Estas imágenes son deepfakes, es decir, contenidos ultrarrealistas que no representan la realidad, o incluso la alteran, y que pueden distorsionar nuestra visión del mundo.

Estos hipertrucajes —imágenes, videos e incluso contenidos interactivos— movilizan nuestra audición, nuestra vista y nuestra participación. Se crean superponiendo a imágenes reales datos que no lo son, gracias a algoritmos de aprendizaje automático combinados con software de mapeo facial, y pueden volverse aún más eficaces gracias a la inteligencia artificial generativa.

Así, algunas herramientas como Speechify, democratizadas en línea, permiten hacer decir cualquier cosa a alguien si se dispone de una grabación de 30 segundos de su voz. Los contenidos creados son tan realistas que pueden engañar incluso a quienes creen poder detectarlos, dificultando la distinción entre lo verdadero y lo falso.


Uno de los primeros deepfakes populares. No, el papa nunca ha llevado en público esta chaqueta blanca.
Imagen Wikimedia

Hoy en día, ver ya no es creer: las imágenes, videos y otros contenidos fabricados pueden ser indistinguibles de los contenidos auténticos. Este fenómeno plantea serios desafíos para la sociedad.

Manipular a los consumidores: de los cánones de belleza a la hegemonía cultural


Las imágenes de modelos utilizadas en las campañas publicitarias de algunas grandes marcas son generadas por sistemas de inteligencia artificial. Transmiten una cierta idea de la belleza y normas estéticas a menudo inalcanzables en el mundo real.

Más allá de una estética que podría simplemente caracterizar los contenidos generados y modificados por inteligencia artificial, los modelos e influencers artificiales creados por hipertrucajes buscan integrarse en el mundo real como si fueran humanos. Incognito Influencer, un influencer virtual hipertrucado, apareció en las imágenes de todas las fashion weeks en 2023, aunque nadie lo vio allí. Aitana López, modelo hipertrucada, tiene sus propias redes sociales.

En estos casos, no se trata de generar ocasionalmente una imagen "perfecta" para vender un producto, sino de poner en escena una personalidad virtual para que influya en los humanos en el mundo físico.

No hay límite a lo que se puede hacer hacer a estos agentes hipertrucados, ya que no existen. En este sentido, los hipertrucajes pueden transmitir modelos de vida cotidiana irreales, que pueden acentuar el malestar de quienes buscan los mismos estilos de vida.

En esto, la investigación en marketing considera que los hipertrucajes son diferentes de los mecanismos publicitarios tradicionales. Las imágenes hipertrucadas pueden ser tan inspiradoras que los individuos pueden creerlas directamente sin intentar comprenderlas demasiado. Cuanto más ricos son los hipertrucajes (por ejemplo, transmitiendo información más allá de una simple fotografía, a través de un contenido de video), más propensos son los consumidores a querer comprar los productos relacionados.

Sin embargo, esto no significa que las marcas no deban establecer límites: los consumidores que no detectaron el hipertrucaje pero descubren que fueron engañados tienen menos ganas de comprar productos de esa marca.

Finalmente, las herramientas de inteligencia artificial utilizadas para generar hipertrucajes reflejan y amplifican los sesgos de nuestras sociedades. Por ejemplo, hace ocho años, una IA invitada a juzgar un concurso de belleza discriminó a las personas de piel negra.

Hoy en día, el motor de búsqueda Bing muestra casi exclusivamente bebés caucásicos con ojos azules cuando se buscan imágenes de "beautiful babies". Esto sugiere que los influencers virtuales hipertrucados podrían presentar únicamente ciertas etnias y visiones de la belleza como "inspiradoras" estética y socialmente.

Los hipertrucajes pueden sacudir la vida política


Los hombres y mujeres políticos pueden ser objeto de parodias modernas gracias a los hipertrucajes. En 2023, Clad 3815 hizo intervenir en su canal de Twitch a los líderes políticos franceses para una sesión interactiva en forma de hipertrucaje, con fines de entretenimiento.

Sin embargo, el contenido generado por IA, si no se anuncia como tal, puede ser manipulador, ya que da a entender que muestra la realidad cuando no es así.

Por ejemplo, para el Año Nuevo 2024, un miembro del partido presidencial francés difundió un hipertrucaje en X que representaba a Marine Le Pen deseando feliz año en ruso, sin indicar que se trataba de un montaje, lo que puede afectar la visión que se tiene de Marine Le Pen y, o bien parecer divertido en relación con los debates sobre la posición de su partido político respecto a Rusia.

Los hipertrucajes políticos afectan efectivamente nuestra visión del mundo: experimentos han demostrado que los deepfakes pueden convencer hasta al 50 % del público estadounidense de escándalos que nunca ocurrieron.

Pero no todos somos iguales frente a estas manipulaciones. Por ejemplo, las personas más interesadas en la política estarán mejor capacitadas para detectar estos hipertrucajes que otras, lo que podría explicarse por su conocimiento general de la información política, su competencia desarrollada para analizarla y su mayor exposición a este tipo de contenido.

Por el contrario, quienes no reconocen estos hipertrucajes pueden ver afectadas sus opiniones políticas. De hecho, una vez que un individuo se enfrenta a un deepfake que representa a un hombre o mujer política, la opinión que tiene de ese político tiende a deteriorarse, mientras que su opinión del partido político representado no cambia. Si el hipertrucaje se presenta a individuos que ya tienen una mala opinión del partido político representado, su opinión se vuelve más negativa tanto respecto al partido como al político en cuestión después de ver el hipertrucaje. Esto significa que los hipertrucajes pueden usarse para manipular opiniones con campañas de difusión dirigida de hipertrucajes.

La inteligencia artificial generativa: hacia usos responsables


Si se es optimista, se puede pensar que la inteligencia artificial generativa permite crear contenidos educativos, como videos de personajes históricos contando la historia de manera cautivadora o reconstruir eventos históricos.

También puede permitir el surgimiento de nuevos servicios. Algunos exploran la idea de usarla para acompañar a personas en el duelo. La diferencia entre un hipertrucaje y un simple uso de la inteligencia artificial generativa se hace en función del objetivo de la generación del contenido: el hipertrucaje está relacionado con la idea de engañar y manipular. Si bien es posible un uso responsable de la inteligencia artificial generativa, es importante promoverlo y regular las posibles desviaciones.

En este sentido, la reflexión sobre la regulación de los hipertrucajes se planteó ya en 2019 en la Asamblea Nacional francesa, y las partes interesadas se están responsabilizando: las imágenes generadas por IA en Google están marcadas desde 2023, una técnica que la empresa aplicó en 2024 a sus contenidos de video, especialmente los creados en Gemini y a través de sus chatbots. En 2023, Twitch anunció la prohibición de la difusión de deepfakes de carácter pornográfico. En 2024, California promulgó una ley contra la generación de hipertrucajes en el contexto de las elecciones.

Este artículo sigue a la publicación del libro blanco "IA generativa e hipertrucajes" para la región Auvergne Rhône Alpes. El libro blanco fue coordinado por P. Wieczorek y S. Blanco. Recibió las contribuciones de L. Bisognin, S. Blanco, T. Fournel, D. Gal-Regniez, S. Gauttier, S. Guicherd, A. Habrard, E. Heidsieck, E. Jouseau, S. Miguet, I. Tkachenko, K. Wang y P. Wieczorek.
Página generada en 0.160 segundo(s) - alojado por Contabo
Acerca de - Aviso Legal - Contacto
Versión francesa | Versión inglesa | Versión alemana | Versión portuguesa