Los creadores de memes y los vendedores de desinformación están adoptando herramientas de inteligencia artificial para crear videos falsos convincentes a bajo costo. (Aaron Fernandez/The New York Times)
Un video que circulaba hace poco por TikTok mostraba a Joe Rogan y a su invitado, Andrew Huberman, promocionando un café, algunos espectadores se sorprendieron, incluyendo a Huberman.
“Sí, es falso”, escribió Huberman en Twitter después de ver el anuncio, en el que parece alabar el potencial del café para aumentar la testosterona, aunque él nunca lo hizo.
El anuncio forma parte de un creciente número de videos falsos en las redes sociales creados con tecnología basada en inteligencia artificial. Según los expertos, la voz de Rogan parece haber sido sintetizada con herramientas de inteligencia artificial que imitan las voces de los famosos. Los comentarios de Huberman fueron extraídos de una entrevista no relacionada.
La creación de videos falsos realistas, a menudo llamados ‘deepfakes’ o ultrafalsos, antes requería un software complejo para poner la cara de una persona en la de otra. Pero ahora, muchas de las herramientas para crearlos están al alcance de los consumidores, incluso en aplicaciones para teléfonos inteligentes, y a menudo por poco o nada de dinero.
Los nuevos videos alterados, en su mayoría obra de creadores de memes y vendedores, se han hecho virales en redes sociales como TikTok y Twitter. Para hacer funcionar a los contenidos que producen, a veces denominados ‘cheapfakes’ (falsos baratos) por los investigadores, estos clonan voces de famosos, alterando los movimientos de la boca para adaptarlos al audio alternativo y escribiendo diálogos persuasivos.
Un periodista de AFP ve un video manipulado con inteligencia artificial para engañar potencialmente a los espectadores, o “falsificar” en su redacción en Washington, DC. – Los videos “deepfake” que manipulan la realidad se están volviendo más sofisticados y realistas como resultado de los avances en inteligencia artificial, creando un potencial para nuevos tipos de desinformación con consecuencias devastadoras.
Los videos y la tecnología accesible que hay detrás de ellos hacen que algunos investigadores de IA se preocupen por sus peligros y han suscitado nuevas dudas sobre si las empresas de redes sociales están preparadas para moderar la creciente falsificación digital.
Los guardianes de la desinformación también se preparan para una ola de falsificaciones digitales que podrían engañar a los espectadores o dificultar saber qué es verdad o mentira en internet.
“Lo diferente es que ahora todo el mundo puede hacerlo”, aseguró Britt Paris, profesora adjunta de Biblioteconomía y Ciencias de la Información en la Universidad de Rutgers, que ayudó a acuñar el término ‘cheapfakes’. “No se trata solo de gente con tecnología informática sofisticada y conocimientos informáticos bastante sofisticados. En lugar de eso, es una aplicación gratuita”.
Los ‘deepfakes’ no son algo nuevo, pero su uso es cada vez más sofisticado para todos
A finales del año pasado, Graphika, una empresa de investigación que estudia la desinformación, falsificaciones de presentadores de noticias ficticios difundidas por cuentas bot pro-China, el primer ejemplo conocido de uso de esta tecnología para campañas de influencia alineadas con el Estado.
No obstante, varias herramientas nuevas ofrecen una tecnología similar a los usuarios de internet, las cuales dan a cómicos y partidarios la oportunidad de hacer sus propias falsificaciones convincentes.
Muchos de los videoclips con voces sintetizadas parecían utilizar tecnología de ElevenLabs, una empresa estadounidense cofundada por un ingeniero que trabajó en Google. En noviembre, la empresa presentó una herramienta de clonación del habla que puede entrenarse para reproducir voces en cuestión de segundos.
ElevenLabs llamó la atención el mes pasado después de que 4chan, un sitio web de tipo tablón de imágenes, basado en el concepto de los foros de texto, conocido por sus contenidos racistas y conspiranoicos, utilizara la herramienta para compartir mensajes de odio. En un ejemplo, los usuarios de 4chan crearon una grabación de audio de un texto antisemita utilizando una voz generada por computadora que imitaba a la actriz Emma Watson. Motherboard informó anteriormente sobre el uso de la tecnología de audio por parte de 4chan.
ElevenLabs afirmó en Twitter que introduciría nuevas salvaguardias, como limitar la clonación de voz a las cuentas de pago y proporcionar una nueva herramienta de detección de IA. Pero los usuarios de 4chan dijeron que crearían su propia versión de la tecnología de clonación de voz utilizando código fuente abierto, publicando demos que suenan de manera similar al audio producido por ElevenLabs.
Los expertos que estudian la tecnología ‘deepfake’ sugirieron que lo más probable era que el anuncio falso en el que aparecían Rogan y Huberman se hubiera creado con un programa de clonación de voz, aunque la herramienta exacta utilizada no estaba clara.
Así es el Razr 40 Ultra, el plegable de Motorola
Motorola alista el lanzamiento del Razr 40 Ultra, su próxima solución para el mercado de celulares plegables, un segmento que...