Inicio / Trends
¿Deepfakes?
Durante muchos años usamos la frase “Verlo para creerlo” con toda seguridad, ya que podíamos confiar plenamente en nuestra mirada para discernir entre la realidad y una mentira. Pero, poco a poco, comenzaron a aparecer programas de edición audiovisual más desarrollados, poniendo en duda todo lo que aparece en las pantallas.
Actualmente, la manipulación digital se ha vuelto tan sofisticada que genera admiración y preocupación entre las personas. Inclusive, los deepfakes (técnica de inteligencia artificial para editar videos) han llegado a ser considerados armas, por las implicaciones y riesgos políticos, sociales y culturales que conllevan.
Según, Deeptrace, para finales del 2019 habían alrededor de 14.500 deepfakes en la web (un aumento del 84% con respecto al año anterior). Pero este número aumenta cada hora, por lo que no sería extraño que usted ya se haya cruzado con uno de estos.
La cuna de la falsedad
La era de las noticias falsas (Fake News), los artículos basados en mentiras diseñados para manipular el pensamiento y volverse virales en redes sociales, está llegando a su fin. Esto debido a que los usuarios están siendo educados sobre el tema y los gobiernos han presionado a las redes para acabar con su propagación.
A pesar de lo anterior, ha entrado en escena una tecnología potencialmente más problemática: los deepfakes. Como su nombre lo dice, el término es una mezcla entre la palabra “deep” (proveniente de “deep learning”, propio de la inteligencia artificial) y “fake” (que hace referencia a algo falso y manipulado). En otras palabras, los deepfakes son una tecnología basada en el aprendizaje automatizado, que se utiliza para producir o alterar imágenes, sonidos y videos, de manera que algo que nunca sucedió se hace pasar como real.
Esta nueva tecnología utiliza un algoritmo que se alimenta de miles de imágenes de una persona, tomadas en distintos ángulos y con diferentes expresiones. Así el sistema aprende cómo debería reaccionar la cara y verse en ciertas situaciones, reconstruyéndola para ajustarse a un video partícular.
Existen dos clases de deepfakes: los que ponen la cara de alguien en un cuerpo, haciendo parecer que esta persona hizo algo (lo cual tuvo origen en la industria pornográfica), y los que toman un discurso y manipulan la cara de una persona para que parezca que lo dijo. Un ejemplo popular de deepfake son los filtros de Instagram y Snapchat que permiten alterar la realidad (por ejemplo, el filtro de las orejas de perro).
Cualquiera pensaría que se requiere de mucho dinero y tecnología compleja para crear estos videos, pero la realidad es que, con una aplicación y suficientes imágenes de una persona, los deepfakes están al alcance de cualquiera.
El dilema
Si solamente estuvieramos hablando de filtros en aplicaciones, es probable que nadie se preocuparía por las implicaciones que tienen los deepfakes en la sociedad; pero siendo esta tecnología cada vez más accesible, hay algunas personas dispuestas a abusar de su uso y difundir deliberadamente información falsa a una audiencia mundial. Por esta razón, los usuarios ya no pueden confiar en lo que ven.
Según Joseph Anthony, el CEO de Hero Group, esta tecnología tendrá consecuencias reales en la libertad de expresión. En una entrevista con Forbes él señalaba que: “Los videos virales falsos no solo dañan la credibilidad de personas influyentes, políticos, marcas y celebridades; potencialmente podrían causar daño a nuestra sociedad al afectar los precios de las acciones de las empresas o los esfuerzos de políticas globales.” Por ejemplo, se podría utilizar un video falso en el que un candidato aparentemente defiende una posición controversial o hace un comentario ofensivo, y dirigirlo a un grupo específico de votantes para influenciar las elecciones. También, a menor escala, alguien podría robar la identidad de una persona común y utilizarla para dañar su imagen (como sucede con el revenge porn).
Por lo anotado, el deepfake tiene el potencial de causar caos en todos los niveles, desde gobiernos, empresas e instituciones hasta en las celebridades y la gente común. Una vez que no se puede distinguir entre lo real y lo falso, esta tecnología se convierte en un arma de destrucción poderosa.
Pero, ¿Qué tiene que ver la industria publicitaria con todo esto?
Siempre se ha visto lo peligroso que puede ser para una compañía o una marca, que su gerente o colaboradores salgan diciendo algo controversial. La reacción que suelen tener los consumidores puede llegar a afectar incluso la economía y la estabilidad de corporaciones reconocidas a nivel internacional. Por esto es que cuando se trata de deepfakes, las empresas también deben estar atentas.
No obstante su lado negativo, esta tecnología también abre un mundo de posibilidades para los mercadólogos y publicistas, comenzando por la forma de utilizar el talento. En el futuro, personas que trabajan actores, modelos, presentadores, entre otros, podrían crear licencias de su imagen y proveer a las empresas con el contenido necesario para que alimenten su sistema y no requieran del artista para toda una producción. Así sería más ágil el proceso de trabajo con los artistas y se podrían usar dobles para muchas de las escenas, sin correr el peligro de que no se parezcan entre ellos.
Esta tecnología se está utilizando también para la creación de influencers, con base en deepfakes. Estas son personas que no existen en el mundo real pero que adquieren muchos seguidores, porque a nivel físico y de personalidad están creadas para apelar a un segmento demográfico específico. Por ejemplo, Lil Miquela es una mujer de 19 años creada por computadora (CG), que ha logrado producir dinero como influencer, gracias a que tiene su propio canal de YouTube y un grupo importante de seguidores, lo que motiva a que marcas como Calvin Klein la contraten para que haga colaboraciones.
Estos avances resultan, inevitablemente, en innovaciones en el mercadeo audiovisual. La tecnología hace que el contenido sea más flexible, pues de adapta y expande a diferentes audiencias, aumentando la relevancia del mensaje y mejorado la relación de la marca con los diferentes grupos. Esto, por ejemplo, lo podemos observar en la campaña de Malaria Must Die.
Algo que no ha sucedido, pero podría llegar a pasar, es que las marcas aprovechen la imagen de los consumidores para reflejarlos en sus campañas. Por ejemplo, Facebook podría colocar en los anuncios de video a personas que el usuario conoce para influir en su decisión y percepción sobre una marca… aunque esto, sin duda, tendría implicaciones legales.
La situación actual
Para combatir el uso inadecuado de esta tecnología han surgido herramientas capaces de detectar los detalles sutiles que exponen la realidad de los videos. Por ejemplo, empresas como Faculty, SRI International y Amber, han estudiado la creación de deepfakes para generar programas que los identifican automáticamente. Entre las capacidades de sus herramientas está el detectar el flujo de sangre bajo la piel de una persona y su patrón de pestañeo en un video, como puntos de referencia para dar a conocer una manipulación.
También los gobiernos y las empresas de redes sociales se han unido a la lucha. Por ejemplo, en California ya se criminaliza el uso de deepfakes en campañas promocionales y publicitarias que manipulan la imagen de los políticos. A su vez, China sacó una política gubernamental que evita la difusión de fake news y deepfakes. Mientras tanto, Twitter y Facebook han introducido herramientas dentro de sus plataformas para detener su propagación.
La realidad es que conforme se vaya avanzando en herramientas para detectar la falsedad, paralelamente se van a ir creando programas que perfeccionen los videos y su capacidad de pasar inadvertidos. Por lo que, como usuarios, lo único que podemos hacer es desarrollar un pensamiento crítico ante el contenido y las fuentes que consumimos.
ANNALECT
Annalect – Unidad de consultoría en efectividad de marketing basado en Datos y analítica de OmnicomMediaGroup.