Titulares como “Médico ‘saludable’ muere dos semanas después de recibir la vacuna Covid; El Gobierno investiga por qué Tribuna de Chicago o “Sorprendente número de trabajadores sanitarios de primera línea rechazan una vacuna contra el covid”, de Forbes, fueron dos ejemplos de los mensajes más virales en Facebook a principios de 2021 y los que más afectaron el ritmo de vacunación en EE.UU. contra la covid. El noticias falsas Son más efectivos, pero su alcance fue mucho menor, porque lo importante es la voluntad de quienes promueven noticias en medios confiables.
Esta es la principal conclusión de un nuevo artículo publicado en la revista Ciencia que analiza el impacto de los enlaces sobre vacunas en Facebook entre enero y marzo de 2021. Los enlaces marcados como falsos fueron vistos 8,7 millones de veces, lo que representó sólo el 0,3% de los 2.700 millones de visitas sobre vacunas en ese tiempo. período, según datos de la plataforma. En cambio, los titulares que no estaban marcados como desinformación sino que sugerían que las vacunas eran dañinas, muchos de ellos en los medios tradicionales, fueron vistos cientos de millones de veces. La diferencia de alcance es tan extraordinaria que la pura desinformación tiene mucha menos relevancia en comparación.
«Nuestro análisis sugiere que los verificadores de datos de Facebook identifican la información errónea más dañina, por lo que Facebook estaba haciendo un trabajo ‘decente’ al respecto», dice Jennifer Allen, investigadora del Instituto Tecnológico de Massachusetts (MIT) y coautora del artículo. . “Pero otras historias pueden volverse virales en línea, y los actores malintencionados pueden utilizar historias rigurosas para promover narrativas engañosas, algo que las plataformas deberían abordar más. Aunque los medios también deben ser conscientes a la hora de redactar sus titulares, ya que su contenido puede presentarse fuera de contexto”, añade. Un titular como el de Tribuna de Chicago En un grupo que se opone a las vacunas, con ese contexto cargado, puede resultar devastador.
Este hallazgo desplaza parte del enfoque tradicional sobre las noticias falsas y la desinformación para recordar que los medios más tradicionales también tienen que monitorear lo que publican, especialmente en una era donde la viralidad a menudo se explica solo por el titular. “La competencia por los clics es un desafío”, afirma Allen, “pero no creo que eso libere a los medios de comunicación. Los periodistas deben tener en cuenta que en línea sólo se leen titulares y las historias pueden sacarse de contexto. Deben esforzarse por evitar posibles malas interpretaciones de su trabajo”.
Los autores calculan el impacto real que tuvieron estos titulares según el número de usuarios que los consumieron. El impacto negativo de los titulares engañosos en las personas que se vacunan fue 46 veces mayor que el de una información errónea más flagrante. en un comentario sobre Ciencia Sobre el artículo, el investigador de la Universidad de Cambridge, Sander van der Linden, utiliza los 233 millones de estadounidenses de Facebook para calcular que esos titulares impidieron que al menos 3 millones de personas se vacunaran. «Es una estimación aproximada», advierte Allen.
El estudio estima que el contenido escéptico sobre las vacunas en Facebook redujo la intención de vacunarse en los EE. UU. en 2,3 puntos, pero la intención de vacunarse puede diferir de la decisión final real de vacunarse. “Asumimos, basándonos en otras investigaciones, que la adopción de vacunas es el 60% de la intención de vacunarse y de ahí sacamos la cifra de 3 millones. «Esa cifra es especulativa, pero sugiere que el impacto potencial de estos titulares podría ser considerable».
El artículo se centra en los efectos de los titulares sobre la vacunación. Pero Van der Linden cree que sería fácilmente replicable en otras áreas, como la política, y “sólo depende del acceso continuo a datos relevantes”, afirma.
Mujer, mayor y conservadora.
En este debate entre fake news de poco alcance y titulares aparentemente serios que se viralizan, Ciencia publica un segundo artículo sobre un fenómeno conocido pero rara vez medido: los superpropagadores. Son un subgrupo de “semibots” centrado en la desinformación, como los bautizó EL PAÍS en una investigación de 2019 titulada “200 tuits por hora desde el sofá: quién está detrás de los perfiles políticos más activos en Twitter”. Son el pequeño grupo de usuarios que convierten su cuenta en una ametralladora de retuits de desinformación o información sesgada. Gracias a esta nueva investigación sabemos que su impacto real en el debate público es mayor de lo que parece.
El estudio observó un panel de más de 664.000 usuarios registrados para votar durante las elecciones presidenciales estadounidenses de 2020. Entre todos ellos, sólo un pequeño grupo de 2.107, que representa el 0,3%, logró distribuir el 80% de las noticias falsas. Son esos súper esparcidores. Sólo ese grupo logró llegar con su trabajo al 5,2% de los votantes registrados en Twitter. «Estos hallazgos resaltan la vulnerabilidad de las redes sociales para la democracia, donde un pequeño grupo de personas distorsiona la realidad política de muchas», escriben los autores del artículo.
La investigación también nos ha permitido identificar algunas características personales de este grupo: son principalmente mujeres, bastante mayores y conservadoras. Este detalle coincide con un estudio de Naturaleza del verano de 2023, con datos en ese caso de Facebook, que mostraban que la inmensa mayoría de los consumidores de desinformación eran conservadores. Este estudio se limita a Twitter por falta de datos de otras redes sociales, según Nir Grinberg, investigador de la Universidad Ben Gurion del Néguev (Israel) y uno de los coautores: “Me hubiera gustado tener el capacidad de responder preguntas sobre otras redes con evidencia empírica, pero la disponibilidad de datos de las plataformas de redes sociales limita este tipo de investigación”.
Los usuarios de Twitter (hoy X) que seguían estas cuentas tendían a estar más expuestos a información errónea y exposición repetida, que son factores importantes para creer mentiras, según el artículo. El impacto de estos usuarios que dedican buena parte de sus días a retuitear no es baladí: si un candidato hubiera querido influir en un grupo de superdifusores así, habría tenido que gastar 20 millones de dólares: “No sólo encuentran una audiencia considerable en las redes, pero resultaron ser miembros influyentes de sus comunidades, porque brindan una cuarta parte de las noticias falsas a sus seguidores”, dice el artículo.
Estos avances en la comprensión de la desinformación abren opciones para pensar en nuevas formas de limitar su alcance. «La moderación de contenido es un equilibrio entre la libertad de expresión y el daño potencial», dice Allen. «Pero a las plataformas les resulta difícil medir qué tan dañino puede ser el contenido». Esto ha sucedido hasta ahora, donde las plataformas se han limitado a reducir el alcance y han ignorado este otro tipo de contenidos más dañinos que violan el espíritu, pero no la letra, de la ley.
«Nuestra metodología permite a las plataformas identificar primero el contenido que potencialmente tiene un impacto negativo y luego desarrollar políticas», dice Allen, quien trabajó en Meta antes de comenzar su doctorado en el MIT. “Como primer paso, Facebook podría priorizar el envío de contenidos a verificadores de datos en función de su impacto potencialmente dañino, su capacidad de persuasión multiplicada por su audiencia potencial, priorizando más las páginas con muchos seguidores”, explica.
Allen también propone como alternativa válida algo similar a las Notas de la comunidad de X, que son una verificación colaborativa entre usuarios. «Puede ser una forma de mitigar el impacto de las historias dañinas que pasan una verificación de hechos pero carecen de un contexto relevante», dice Allen.
puedes seguir EL PAÍS Tecnología en Facebook y X o regístrate aquí para recibir nuestra boletín semanal.



