NEGOCIOS

Investigadores descubren campaña de influencia «Fishwrap» reciclando viejas noticias de terror

Viejas noticias, nuevos peces.
Agrandar / Viejas noticias, nuevos peces.

Imágenes de Rick Barrentine/Getty

Los investigadores de Recorded Future han descubierto lo que parece ser una nueva y creciente operación de influencia basada en las redes sociales que involucra a más de 215 cuentas de redes sociales. Si bien es relativamente pequeña en comparación con las operaciones de influencia y desinformación dirigidas por la Agencia de Investigación de Internet (IRA), afiliada a Rusia, la campaña se destaca por su método sistemático de reciclar imágenes e informes de ataques terroristas pasados ​​y otros eventos y presentarlos como noticias de última hora. —un enfoque que llevó a los investigadores a llamar a la campaña «Fishwrap».

La campaña fue identificada por investigadores que aplicaron el algoritmo «Snowball» de Recorded Future, un sistema de análisis basado en aprendizaje automático que agrupa cuentas de redes sociales como relacionadas si:

  • Publique las mismas URL y hashtags, especialmente en un corto período de tiempo
  • Utilice los mismos acortadores de URL
  • Tener un «comportamiento temporal» similar, publicando en momentos similares, ya sea en el transcurso de su actividad o en el transcurso de un día o una semana.
  • Comenzar a operar poco después de que otra cuenta que publique contenido similar cese su actividad
  • Tener nombres de cuenta similares, «según lo definido por la distancia de edición entre sus nombres», como explicó Staffan Truvé de Recorded Future.

Las operaciones de influencia generalmente intentan moldear la visión del mundo de una audiencia objetivo para crear divisiones sociales y políticas; socavar la autoridad y la credibilidad de los líderes políticos; y generar miedo, incertidumbre y duda sobre sus instituciones. Pueden tomar la forma de noticias reales plantadas a través de filtraciones, documentos falsificados o «expertos» cooperativos (como lo hizo la Unión Soviética al difundir desinformación acerca de que el ejército estadounidense creó el SIDA). Pero el bajo costo y la facilidad de orientación que brindan las redes sociales han facilitado mucho la difusión de historias (incluso las falsas) para crear un efecto aún mayor, como lo demuestra el uso de los datos de Cambridge Analytica para identificar personas para campañas políticas y el IRA «Proyecto Lakhta», entre otros. Desde 2023, Twitter ha identificado múltiples campañas de influencia en las redes sociales aparentemente financiadas por el estado o influenciadas por el estado. de Irán, Venezuela, Rusia y Bangladesh.

Artículo Recomendado:  Internet residencial 5G de T-Mobile: $60 al mes, velocidades de 100 Mbps y sin límite de datos

Noticias falsas, noticias viejas

En una publicación de blog, Truvé de Recorded Future mencionó dos ejemplos de publicaciones de campaña de «noticias falsas» identificadas por los investigadores. La empresa se centró primero en los informes durante los disturbios en Suecia por la brutalidad policial que afirmaban que los musulmanes protestaban contra las cruces cristianas, mostrando imágenes de personas vestidas de negro destruyendo una efigie de Cristo en la cruz. La historia fue reportada primero por una cuenta en ruso y luego recogida por cuentas de «noticias» de derecha en el Reino Unido, pero utilizó imágenes recicladas de una historia sobre estudiantes que protestaron en Chile en 2023. Otra noticia falsa identificada como parte de la campaña Fishwrap usó historias antiguas de un ataque terrorista en París en 2023 para crear publicaciones sobre un ataque terrorista falso en marzo de este año. Sin embargo, la historia vinculada era la historia original de 2023, por lo que los lectores atentos podrían darse cuenta de que estaba un poco anticuada.

La campaña Fishwrap constaba de tres grupos de cuentas. La primera ola estuvo activa de mayo a octubre de 2023, después de lo cual muchas de las cuentas cerraron; una segunda ola se lanzó en noviembre de 2023 y permaneció activa hasta abril de 2023. Y algunas cuentas permanecieron activas durante todo el período. Todas las cuentas usaban acortadores de dominio alojados en un total de 10 dominios pero usando un código idéntico.

Muchas de las cuentas han sido suspendidas, pero Truvé señaló que «no ha habido una suspensión general de cuentas relacionadas con estos acortadores de URL». Sugirió que una de las razones era que, dado que las cuentas publican texto y enlaces asociados con «eventos terroristas antiguos, pero reales», las publicaciones técnicamente no violan los términos de servicio de las plataformas de redes sociales en las que se publicaron. encendido, haciéndolos menos propensos a ser eliminados por moderación humana o algorítmica.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba