Un nuevo estudio demuestra que las empresas de redes sociales tienen las herramientas para reducir el impacto de la información errónea sobre las vacunas en sus plataformas.

Las plataformas de redes sociales tienen un problema de desinformación: esto no es nada nuevo. Ya sea por el cambio climático, la pandemia de COVID-19, la información errónea sobre las vacunas o las noticias mundiales, los expertos están cada vez más preocupados de que el problema se esté convirtiendo en un problema insuperable debido a la naturaleza de plataformas como Facebook, TikTok y Twitter, lo que está causando una gran preocupación pública. .

«Como investigador que estudia los medios sociales y de la sociedad civil, creo que es fundamental comprender cómo se propaga la desinformación en línea», escribió Ethan Zuckerman, profesor asociado de políticas públicas, comunicaciones e información en UMass Amherst, en un artículo más publicado. losconversacion. «Pero es más fácil decirlo que hacerlo. El simple hecho de contar la información errónea que se encuentra en una plataforma de redes sociales deja dos preguntas clave sin respuesta: ¿cuál es la probabilidad de que los usuarios encuentren información errónea y es particularmente probable que ciertos usuarios se vean afectados por la información errónea?

Si bien la última pregunta puede depender del usuario, algunos expertos creen que limitar la exposición o incluso ayudar a las personas a identificar mejor la información errónea podría ser un camino a seguir.

Para abordar el problema, algunas empresas de tecnología han implementado políticas para limitar o identificar la cantidad de información falsa compartida en sus plataformas. Por ejemplo, en 2019, Facebook lanzó su primera política para contrarrestar la difusión de información errónea relacionada con las vacunas.

Se ha debatido acaloradamente si estas pautas son performativas o si tienen alguna implicación. Un equipo de investigadores dirigido por Lorien Abroms, profesora de prevención y salud comunitaria en la Universidad George Washington, deseaba determinar si había cambios razonables como resultado de la política de Facebook de 2019.

«Existe un consenso cada vez mayor de que la desinformación sobre la salud en las plataformas de las redes sociales es un desafío crítico para la salud pública, particularmente durante la pandemia de COVID-19», dijo Abroms en un comunicado. «Si bien las nuevas políticas de las empresas de redes sociales son un primer paso importante para detener la difusión de información errónea, también es necesario evaluar rigurosamente esas políticas para garantizar que sean efectivas».

Para el estudio, el equipo realizó un análisis de series temporales discontinuas, un método de análisis estadístico que rastrea los datos a lo largo del tiempo antes y después de un punto de intervención. Identificaron 172 páginas de Facebook en contra y a favor de la vacunación y monitorearon las «recomendaciones de los usuarios» a través de «me gusta» en las publicaciones publicadas en el transcurso de seis meses, tanto antes como después de que la política entrara en vigencia.

El estudio encontró que la política de desinformación de Facebook limitó moderadamente la cantidad de Me gusta de contenido antivacunas en las páginas de su plataforma. «Al observar la cantidad de suscriptores, el efecto político en la cantidad de Me gusta para las publicaciones contra las vacunas fue mucho menor, pero aún estadísticamente significativo», escriben los autores en su artículo.

Esto significa que, si bien las interacciones de los suscriptores de la página con las publicaciones fueron menos pronunciadas que las de los no suscriptores, el cambio antes y después de la implementación de la política aún fue estadísticamente significativo, lo que, según el estudio, otorga credibilidad a la efectividad de la política.

Si bien no es una panacea, comprender qué políticas son efectivas y cuáles no puede ayudar a las plataformas de redes sociales y a los legisladores a comprender mejor cómo frenar la cantidad de información errónea en sus sitios.

«Esta investigación es un buen primer paso en el desarrollo de un proceso para evaluar la efectividad de las políticas de redes sociales diseñadas para detener la propagación de información errónea», dijo Jiayan Gu, Ph.D. Estudiante del grupo de Abroms y autor del estudio. «Esperamos continuar con este trabajo y ampliar nuestra comprensión de cómo las intervenciones políticas en las redes sociales pueden transformar positivamente los ecosistemas para compartir información en línea».

Referencia: Jianyan Gu, et al., El impacto de la política de desinformación sobre vacunas de Facebook en los defensores de los usuarios del contenido de vacunas: un análisis de serie temporal interrumpido, Vacuna (2022). DOI: 10.1016/j.vacuna.2022.02.062

Crédito de la imagen de la característica: Robin Worrall Unsplash

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí