No estaría del todo fuera de lugar que Joe Rogan, comediante convertido en podcaster, respalde una marca de café para hombres que “mejora la libido”.
Pero cuando un video que circuló recientemente en TikTok mostró al Sr. Rogan y su invitado, Andrew Huberman, tomando un café, algunos espectadores con ojos de águila, incluido el Dr. Huberman, se sorprendieron.
“Sí, eso es falso”, Dr. Huberman escribió en Twitter Después de ver el anuncio, donde parece elogiar la capacidad del café para aumentar la testosterona, aunque nunca lo hace.
El anuncio fue uno de un número creciente de videos falsos en las redes sociales diseñados con tecnología impulsada por IA. Los expertos dijeron que la voz de Rogan parece haber sido sintetizada usando herramientas de inteligencia artificial que imitan las voces de las celebridades. Los comentarios del Dr. Huberman se extrajeron de una entrevista no relacionada.
La creación de videos falsos realistas, a menudo llamados deepfakes, requería un software sofisticado para superponer la cara de una persona sobre la de otra. Pero ahora, muchas de las herramientas para crearlos están disponibles para los consumidores todos los días, incluso en aplicaciones para teléfonos inteligentes, a menudo por poco o nada de dinero.
Los videos nuevos y editados, en su mayoría, hasta ahora, el trabajo de creadores de memes y vendedores, se han vuelto virales en sitios de redes sociales como TikTok y Twitter. El contenido que producen, que los investigadores a veces llaman falsificaciones baratas, funciona clonando voces de celebridades, alterando los movimientos de la boca para que coincidan con la voz alternativa y escribiendo diálogos convincentes.
Los videos y la tecnología accesible detrás de ellos tienen a algunos investigadores de IA preocupados por sus peligros y generaron nuevas preocupaciones sobre si las compañías de redes sociales están dispuestas a mitigar la creciente falsificación digital.
Los vigilantes de la desinformación también se están preparando para una ola de falsificaciones digitales que pueden engañar a los espectadores o hacer que sea más difícil saber qué está bien o mal en línea.
“Lo diferente es que todos pueden hacerlo ahora”, dijo Brett Paris, profesor asistente de biblioteconomía y ciencias de la información en la Universidad de Rutgers, quien ayudó a acuñar el término “falsificaciones baratas”. “No es solo para personas con tecnología computacional sofisticada y conocimiento computacional bastante sofisticado. En cambio, es una aplicación gratuita”.
Propagación de información errónea y falsedad
- Reduciendo: Los recortes de empleos en la industria de las redes sociales reflejan una tendencia que amenaza con deshacer muchas de las medidas de seguridad que las plataformas han implementado para bloquear o suprimir la información errónea.
- Condición básica: El resultado de la batalla judicial federal podría ayudar a decidir si la Primera Enmienda es un impedimento para casi cualquier esfuerzo del gobierno por sofocar la desinformación.
- Mejor esparcidor de desinformación: Un gran estudio encontró que el podcast “War Room” de Steve Bannon contenía más mentiras y afirmaciones sin fundamento que otros programas de entrevistas políticas.
- inteligencia artificial: Por primera vez, se han detectado personajes generados por IA en una campaña de desinformación a favor del estado, lo que abre un nuevo capítulo en la manipulación en línea.
Montones de contenido manipulado han estado circulando en TikTok y en otros lugares durante años, generalmente utilizando trucos más caseros como la edición sutil o el intercambio de un clip de audio por otro. En un video de TikTok, la vicepresidenta Kamala Harris parecía decir que todos los hospitalizados por covid-19 habían sido vacunados. De hecho, dijo, los pacientes no habían sido vacunados.
Graphika, una firma de investigación que estudia la desinformación, detectó deepfakes a proveedores de noticias falsas que distribuyeron cuentas de bots a favor de China a fines del año pasado, en el primer ejemplo conocido de la tecnología que se usa en campañas de influencia alineadas con el estado.
Pero varias herramientas nuevas ofrecen una tecnología similar a los usuarios de Internet de todos los días, lo que brinda a los comediantes y fanáticos de los stand-up la oportunidad de hacer sus propias parodias convincentes.
El mes pasado, circuló un video falso que mostraba al presidente Biden anunciando un borrador nacional para la guerra entre Rusia y Ucrania. El video fue producido por el personal de “Human Events Daily”, un podcast y transmisión en vivo a cargo de Jack Posobiec, un influyente de derecha conocido por difundir teorías de conspiración.
Al explicar el video, el Sr. Posobiec dijo que su equipo lo creó usando tecnología de IA. Un tuit sobre el video de The Patriot Oasis, una cuenta conservadora, usó la etiqueta de noticias de última hora sin implicar que el video fuera falso. El tuit ha sido visto más de ocho millones de veces.
Muchos de los videos que presentan voces sintetizadas parecen usar tecnología de ElevenLabs, una empresa estadounidense cofundada por un ex ingeniero de Google. En noviembre, la compañía lanzó una herramienta de reproducción de voz que puede ser entrenada para repetir sonidos en segundos.
ElevenLabs atrajo la atención el mes pasado después de que 4chan, un foro de mensajes conocido por su contenido racista y conspirativo, utilizó la herramienta para compartir mensajes de odio. En un ejemplo, los usuarios de 4chan crearon una grabación de audio de un texto antisemita utilizando una voz generada por computadora que imitaba a la actriz Emma Watson. Motherboard informó anteriormente sobre el uso de la tecnología de audio por parte de 4chan.
ElevenLabs dijo en Twitter que hará Introducir nuevas garantíascomo limitar la reproducción de audio a cuentas pagas y proporcionar una nueva herramienta de detección de IA. Pero los usuarios de 4chan dijeron que crearían su propia versión de la tecnología de reproducción de audio utilizando un código fuente abierto y publicaron demostraciones similares al audio producido por ElevenLabs.
“Queremos tener nuestra propia IA personalizada con la capacidad de crear”, escribió un usuario anónimo de 4chan en una publicación sobre el proyecto.
En un correo electrónico, una portavoz de ElevenLabs dijo que la compañía espera colaborar con otros desarrolladores de inteligencia artificial para crear un sistema de descubrimiento universal que pueda adoptarse en toda la industria.
En las últimas semanas han proliferado los vídeos en los que se reproducen voces, creados con la herramienta ElevenLabs o una tecnología similar. Uno de ellos, publicado en Twitter por Elon Musk, el propietario del sitio, mostraba una conversación falsa y llena de blasfemias entre Rogan, Musk y Jordan Peterson, un activista canadiense de derechos humanos. En otra foto, publicada en YouTube, Rogan parecía estar entrevistando a una versión falsa del primer ministro canadiense, Justin Trudeau, sobre sus escándalos políticos.
“Producir tales falsificaciones debería ser un delito con una pena obligatoria de diez años”, dijo Peterson en un tuit sobre videos falsos que muestran su voz. “Esta tecnología es inimaginablemente peligrosa”.
Una portavoz de YouTube dijo en un comunicado que el video de Rogan y Trudeau no violó las políticas de la plataforma porque “brinda suficiente contexto”. (El creador lo llamó un “video falso”). La compañía dijo que sus políticas de desinformación prohíben el contenido que ha sido manipulado de manera engañosa.
Los expertos que estudian los deepfakes han sugerido que el anuncio falso que presenta al Sr. Rogan y al Dr. Huberman probablemente se creó utilizando un software de clonación de audio, aunque la herramienta exacta utilizada no está clara. La voz en off del Sr. Rogan se une a una entrevista real con el Dr. Huberman sobre la testosterona.
Los resultados no son perfectos. El clip del Sr. Rogan fue tomado de una entrevista no relacionada publicada en diciembre con Fedor Gorst, un jugador de billar profesional. Los movimientos de la boca del Sr. Rogan no coinciden con la voz, y su voz suena poco natural a veces. Si el video convenció a los usuarios de TikTok, es difícil saberlo: atrajo mucha más atención después de que fue señalado por su impresionante falsedad.
Las políticas de TikTok prohíben las falsificaciones digitales “que engañan a los usuarios al tergiversar la verdad de los eventos y causan un daño significativo al sujeto del video, a otras personas o a la comunidad”. Varios de los videos fueron eliminados después de que The New York Times informara a la empresa. Twitter también eliminó algunos de los videos.
Un portavoz de TikTok dijo que la compañía usó “una combinación de tecnología y moderación humana para detectar y eliminar” videos manipulados, pero se negó a revelar sus métodos.
El Sr. Rogan y la empresa que aparece en el anuncio simulado no respondieron a las solicitudes de comentarios.
Muchas empresas de redes sociales, incluidas Meta y Twitch, han prohibido las falsificaciones profundas y los videos manipulados que engañan a los usuarios. Meta, propietaria de Facebook e Instagram, realizó una competencia en 2021 para desarrollar un software capaz de identificar falsificaciones profundas, lo que resultó en una herramienta que podría detectarlas el 83 por ciento de las veces.
Los reguladores federales han tardado en responder. Una ley federal de 2019 exigió un informe sobre el uso de armas falsas en el extranjero, exigió que las agencias gubernamentales notifiquen al Congreso si las falsificaciones tienen como objetivo las elecciones en los Estados Unidos y creó un premio para fomentar la investigación sobre herramientas que pueden detectar falsificaciones profundas.
“No podemos esperar dos años para que se aprueben las leyes”, dijo Ravit Dotan, investigador postdoctoral que dirige el Laboratorio de Responsabilidad Colaborativa de Inteligencia Artificial de la Universidad de Pittsburgh. Para entonces, el daño podría ser demasiado grande. Tenemos unas próximas elecciones aquí en los Estados Unidos que van a ser problemáticas”.