YUNGANG YANG, MATTHEW HINDMAN Y TREVOR DAVIS. EL SOL DE MÉXICO
¿Cuánta desinformación hay en Facebook? Varios estudios han encontrado que la cantidad de información errónea en dicha red es baja o que el problema ha disminuido con el tiempo. Sin embargo, en esos casos se ha perdido una parte importante de la historia.
Realizamos un estudio que muestra lo que otros estudios han pasado por alto: Cantidades masivas de información errónea. Y es que la mayor fuente de información errónea en Facebook no son los enlaces a sitios de noticias falsas, sino algo más básico: las imágenes. Y una gran parte de las imágenes publicadas son engañosas.
Por ejemplo, en vísperas de las elecciones de 2020 de Estados Unidos, casi una de cada cuatro publicaciones de imágenes políticas en Facebook contenía información errónea. Las falsedades ampliamente compartidas incluyeron teorías de conspiración de QAnon, declaraciones engañosas sobre el movimiento Black Lives Matter y afirmaciones infundadas sobre el hijo de Joe Biden, Hunter Biden.
Nuestro estudio es el primer esfuerzo a gran escala, en cualquier plataforma de redes sociales, para medir la prevalencia de información errónea basada en imágenes sobre la política estadounidense. Es importante estudiar las publicaciones con imágenes, en parte porque son el tipo de publicación más común en Facebook con aproximadamente el 40 por ciento de todas las publicaciones.
Investigaciones anteriores sugieren que las imágenes pueden ser especialmente potentes. Agregar imágenes a las noticias puede cambiar las actitudes y es más probable que las publicaciones con imágenes se compartan. Las imágenes también han sido un componente durante mucho tiempo de las campañas de desinformación patrocinadas por el estado, como las de la Agencia de Investigación de Internet de Rusia.
Nos dedicamos a recolectar más de 13 millones de publicaciones de imágenes de Facebook, desde agosto hasta octubre de 2020, de 25 mil páginas y grupos públicos. Las audiencias en Facebook están tan concentradas que estas páginas y grupos representan al menos el 94 por ciento de todas las interacciones (me gusta, acciones, reacciones) para publicaciones de imágenes políticas.
Usamos el reconocimiento facial para identificar figuras públicas y rastreamos imágenes republicadas. Luego, clasificamos grandes sorteos aleatorios de imágenes en nuestra muestra, así como las imágenes republicadas con mayor frecuencia.
En general, nuestros hallazgos son sombríos: el 23 por ciento de las publicaciones de imágenes en nuestros datos contenían información errónea. De acuerdo con el trabajo anterior, encontramos que la información errónea se distribuyó de manera desigual a lo largo de las líneas partidistas. Si bien sólo el 5 por ciento de las publicaciones de izquierda contenían información errónea, el 39 por ciento de las publicaciones de derecha sí lo hicieron.
La información errónea que encontramos en Facebook era muy repetitiva y, a menudo, simple. Si bien hubo muchas imágenes manipuladas de manera engañosa, estas fueron superadas en número por memes con texto engañoso, capturas de pantalla de publicaciones falsas de otras plataformas o publicaciones que tomaron imágenes inalteradas y las tergiversaron.
Por ejemplo, se publicó repetidamente una imagen como “prueba” de que el ahora ex presentador de Fox News, Chris Wallace, era un colaborador cercano del depredador sexual Jeffrey Epstein. En realidad, el hombre canoso de la imagen no es Epstein, sino el actor George Clooney.
Las publicaciones de imágenes en Facebook eran tóxicas en formas que iban más allá de la simple desinformación. Encontramos innumerables imágenes que eran abusivas, misóginas o simplemente racistas. Nancy Pelosi, Hillary Clinton, Maxine Waters, Kamala Harris y Michelle Obama fueron los objetivos más frecuentes de abuso.
Queda mucho más trabajo por hacer para comprender el papel que juega la desinformación visual en el panorama político digital. Si bien Facebook sigue siendo la plataforma de redes sociales más utilizada, se publican más de mil millones de imágenes al día en la plataforma hermana de Facebook, Instagram, y miles de millones más en el rival Snapchat. Los videos publicados en YouTube, o TikTok de llegada más reciente, también pueden ser un vector importante de información política errónea sobre la cual los investigadores aún saben muy poco.
Quizás el hallazgo más inquietante de nuestro estudio, entonces, es que destaca la amplitud de la ignorancia colectiva sobre la información errónea en las redes sociales. Se han publicado cientos de estudios sobre el tema, pero hasta ahora los investigadores no han entendido la mayor fuente de información errónea en la plataforma de redes sociales más grande. ¿Qué más nos falta?
* Académicos de Texas A&M University, Universidad George Washington y Universidad de Columbia.