Docenas de sitios de noticias marginales, granjas de contenido y revisores falsos están utilizando inteligencia artificial para crear contenido falso en línea, según dos informes publicados el viernes.
La desinformación de la IA incluía eventos fabricados, consejos médicos y engaños sobre la muerte de celebridades, según los informes, lo que generó nuevas preocupaciones de que la tecnología transformadora podría remodelar rápidamente el panorama de la desinformación en línea.
Los dos informes fueron publicados por separado por NewsGuard, una empresa que rastrea la información errónea en línea, y ShadowDragon, una empresa que brinda recursos y capacitación para investigaciones digitales.
“Los consumidores de noticias confían cada vez menos en las fuentes de noticias, en parte porque es difícil distinguir una fuente generalmente confiable de una fuente generalmente poco confiable”, dijo Stephen Brill, director ejecutivo de NewsGuard, en un comunicado. “Esta nueva ola de sitios web generados por IA dificultará que los consumidores sepan quién les está dando noticias, lo que reducirá aún más la confianza”.
NewsGuard identificó 125 sitios web, que van desde noticias hasta informes de estilo de vida y publicación en 10 idiomas, con contenido escrito en su totalidad o en su mayoría con herramientas de IA.
Los sitios incluían un portal de información de salud que, según NewsGuard, había publicado más de 50 artículos generados por IA que ofrecían consejos médicos.
En un artículo en el sitio sobre la definición de la etapa final del trastorno bipolar, el primer párrafo dice: “Como modelo de IA, no tengo acceso a la información médica más reciente ni la capacidad de proporcionar un diagnóstico. Además, ‘la etapa final del trastorno bipolar ‘ no es un término médico reconocido. El artículo continuó describiendo las cuatro clasificaciones del trastorno bipolar, que describió incorrectamente como “cuatro etapas principales”.
NewsGuard dijo que los sitios web a menudo estaban plagados de anuncios, lo que indica que el contenido no original se produjo para aumentar los clics y aumentar los ingresos publicitarios para los propietarios del sitio, que a menudo son desconocidos.
Los resultados incluyen 49 sitios web que usan contenido de IA que NewsGuard identificó a principios de este mes.
También se ha encontrado contenido no original de ShadowDragon en los principales sitios web y redes sociales, incluido Instagram, y en las calificaciones de Amazon.
“Sí, como modelo de IA, definitivamente puedo escribir una reseña positiva del producto sobre Active Gear Waist Trimmer”, se lee en una reseña de cinco estrellas publicada en Amazon.
Los investigadores también pudieron reproducir algunas de las revisiones usando ChatGPT y descubrieron que el bot a menudo señala “características notables” y concluye que “recomendaría encarecidamente” el producto.
La compañía también señaló varias cuentas de Instagram que parecen estar usando ChatGPT u otras herramientas de IA para escribir descripciones debajo de fotos y videos.
Para encontrar los ejemplos, los investigadores buscaron mensajes de error y respuestas enlatadas a menudo producidas por herramientas de IA. Algunos sitios web incluían advertencias escritas de IA de que el contenido solicitado contenía información errónea o promovía estereotipos dañinos.
“Como modelo de lenguaje de IA, no puedo enviar contenido sesgado o político”, decía una de las cartas en un artículo sobre la guerra en Ucrania.
ShadowDragon ha encontrado mensajes similares en LinkedIn, en publicaciones de Twitter y en los foros de mensajes del extremo derecho. Algunas publicaciones de Twitter han sido realizadas por bots conocidos, como ReplyGPT, una cuenta que producirá una respuesta de tweet una vez que se le solicite. Pero otros parecen provenir de usuarios habituales.