Tema central

«Fake news»: una oportunidad para la alfabetización mediática

En un reciente estudio de BuzzFeed e Ipsos Public Affairs, más de la mitad de los encuestados (54%) afirmó creer «solo un poco» o «nada en absoluto» en las noticias que lee en Facebook9. Y parte de la culpa del problema de confianza recae en la misma red social: el debate sobre noticias falsas en los medios ha llegado a la población y 42% de las personas encuestadas dijo que no confía en las noticias en la red social porque Facebook no está haciendo un buen trabajo para frenar las noticias falsas en su plataforma. No obstante, no parece que el uso de algoritmos para seleccionar contenido o la inexistencia de editores humanos en Facebook preocupen a los encuestados. Solo 15% restaba credibilidad a las noticias encontradas en Facebook por los algoritmos utilizados y a un porcentaje incluso menor (11%) le preocupaba la falta de editores humanos.

También se les pidió a los encuestados que indicasen lo importante que resultaban varios factores para determinar la confianza en una noticia en Facebook. Para ocho de cada diez, era importante la fuente de la noticia, siete de cada diez dieron importancia a su familiaridad con el tema de la noticia y seis de cada diez apuntaron a la persona que la compartía.

Estos datos contrastan con los resultados del Media Insight Project, que este año llevó a cabo un estudio experimental para analizar cómo diferentes factores afectan la percepción sobre las noticias de los usuarios de Facebook10. El estudio encontró que el usuario que compartía una noticia importaba más que la fuente de la noticia. Es decir, que los ciudadanos confíen en la persona que comparte la noticia es más importante que quién produce la noticia o incluso si el artículo ha sido escrito por una organización de medios real.

Falta sentido crítico en el acceso y consumo de información. Según un estudio de la Universidad de Stanford de 2017, 82% de los estudiantes de secundaria no puede distinguir entre un anuncio etiquetado como contenido patrocinado y una noticia real en una página web11. De hecho, muchos estudiantes dieron credibilidad a un tuit informativo por el hecho de incluir una gran foto y sin reparar en la fuente de la noticia.

El perverso papel de los algoritmos

¿Qué papel tienen las plataformas digitales? Facebook ha sido acusada de haber influido en la campaña presidencial estadounidense con la difusión de informaciones falsas que habrían favorecido a Trump y habrían tenido un impacto mayor que las informaciones verdaderas. De hecho, ya se ha publicado un estudio en el que se examina la información que circulaba en las redes sociales en el estado de Michigan, donde se encontró la misma cantidad de noticias falsas que de noticias reales12. ¿Qué ha sucedido? Básicamente, que el contenido –en muchas ocasiones sensacionalista– de las noticias falsas se propaga más rápidamente que una noticia real. Y su corrección o rectificación (en el caso de que la haya) raramente se comparte de la misma forma.

A raíz de las críticas recibidas, tanto Facebook como Google están tomando medidas para impedir que sitios web que diseminan noticias falsas utilicen sus plataformas. Google ya había anunciado en octubre pasado que introduciría una nueva función en su servicio Google News que destacaría los artículos verificados previamente de forma rigurosa. Además, a través de la Google Digital News Initiative, está financiando varios proyectos relacionados con la verificación de datos.

Al principio Facebook rechazó las acusaciones de que las noticias falsas habían ayudado al resultado de las elecciones presidenciales, pero aun así ha tomado medidas. En diciembre, además de lanzar un nuevo recurso que permite a los usuarios informar de posteos potencialmente falsos, Facebook se asoció con abc News, Snopes, PolitiFact, FactCheck.org y ap para verificar las historias que se publican. Ahora, ante noticias falsas, aparece un comentario de la compañía que pone en cuestión el contenido al que se intenta acceder. En enero lanzó el Facebook Journalism Project que, entre otras actividades, pretende promover la alfabetización mediática (news literacy), con el objetivo de ayudar a los ciudadanos a obtener la información necesaria para tomar decisiones sobre en qué fuentes creer. Además, ha llevado a cabo reuniones con organizaciones de medios para compartir las medidas que está tomando para mejorar la gran cantidad de noticias presentes en la plataforma. En febrero, Mark Zuckerberg publicó un manifiesto en el que reconocía que Facebook todavía tiene mucho por hacer para combatir los bulos y noticias falsas en su plataforma. Y hace apenas un mes lanzó la News Integrity Initiative, junto con otras instituciones y organizaciones que incluyen a la John S. and James L. Knight Foundation, Democracy Fund, Tow Foundation y Mozilla, entre otras. Con un presupuesto de 14 millones de dólares, la iniciativa se centra en ayudar a que los ciudadanos puedan tomar decisiones informadas sobre las noticias que leen y comparten online. En definitiva, mejorar la alfabetización en noticias, aumentar la confianza en el periodismo e informar mejor a la opinión pública. Pero ¿quién elige las noticias en la red social? Un algoritmo. Un algoritmo decide el orden de las noticias que vemos en la red social. Tras recibir críticas por promocionar informaciones con un sesgo progresista, Facebook reemplazó al personal encargado de organizar las noticias de su sección «Trending Stories» por algoritmos. Pero los algoritmos no necesariamente garantizan que las noticias sean realmente noticias. De hecho, fueron los algoritmos los que sesgaron la información a favor de Trump. Los investigadores Alessandro Bessi y Emilio Ferrara afirman que los bots13 fueron utilizados en actos que buscaban alterar el resultado de las elecciones presidenciales y que trolls extranjeros bombardearon las redes sociales estadounidenses con noticias falsas14.

Esto ha provocado que surjan iniciativas para desenmascarar esas cuentas falsas. Una de ellas es BotorNot, promovida por la Indiana University Bloomington, que forma parte del proyecto Truthy. A través de su página web, se puede insertar el nombre de un usuario de Twitter y el programa analiza la actividad de esta cuenta y da una puntuación basada en la probabilidad de que esa cuenta sea un bot.

  • 9.

    Ipsos Public Affairs: Buzzfeed Facebook News, 2017.

  • 10.

    ap-norc Center / American Press Institute: «‘Who Shared It?’: How Americans Decide What News to Trust on Social Media», The Media Insight Project, marzo de 2017.

  • 11.

    Stanford History Education Group: «Evaluating Information: The Cornerstone of Civic Online Reasoning», 2017.

  • 12.

    Philip N. Howard, Gillian Bolsover, Bence Kollanyi, Samantha Bradshaw y Lisa-Maria Neudert; «Junk News and Bots during the us Election: What Were Michigan Voters Sharing Over Twitter?», comprop Data Memo 2017/1, 26/3/2017.

  • 13.

    Cuentas falsas en las redes sociales que están programadas para hacer un like o retuitear un mensaje determinado.

  • 14.

    A. Bessi y E. Ferrara: «Social Bots Distort the 2016 us Presidential Election Online Discussion» en First Monday vol. 21 No 11, 11/2016.