Tema central

«Big data» y política El poder de los algoritmos

Otra diferencia fundamental con los medios tradicionales es que no hay una persona decidiendo a quién ofrecerle pañales o whisky, sino que esa tarea la hará un algoritmo, es decir, un programa que al ser alimentado con big data «aprenderá» qué ofrecer a cada quien según sus intereses. Estos algoritmos, además, son capaces de aprender por prueba y error para mejorar su performance: si a mujeres de cierta localidad, edad, nivel cultural, etc. les interesó tal producto, probablemente a otras con el mismo perfil también les interese.

Facebook es un ejemplo del potencial del big data, pero existen muchos más. Google Maps y otras aplicaciones pueden decirnos qué camino tomar para evitar atascos gracias a quienes mantienen el gps de sus celulares encendidos: con algoritmos que aprenden de lo que ocurrió otras veces, pueden predecir qué ocurrirá ahora. Si se equivoca, el algoritmo se reajusta para calcular mejor la próxima vez. Las tarjetas de crédito cruzan los datos de sus clientes con la información meteorológica para conocer mejor el comportamiento de los consumidores en los días de lluvia: ¿será preferible lanzar cierto tipo de ofertas cuando llueve? El big data puede tener también otros usos sociales: por ejemplo, hacer periodismo de datos y ordenar grandes cantidades de información (como ocurrió con los «Panamá Papers») para permitir detectar casos relevantes o presentarlos de forma más fácilmente comprensible. Los ejemplos de nuevos usos del big data se multiplican cotidianamente.Como explicaba en una entrevista el doctor en Comunicación y especialista en estas temáticas Martin Hilbert,

La disponibilidad de big data convirtió a las ciencias sociales, de las que siempre se burlaron, en las ciencias más ricas en datos. (...) Nosotros nunca tuvimos datos, y por eso nunca funcionaban las políticas públicas. Y de la noche a la mañana, 95% de los sujetos que estudiamos pasó a tener un sensor de sí mismo 24 horas al día. Los biólogos siempre dijeron «eso no es ciencia, no tienen datos». Pero ellos no saben dónde están las ballenas en el mar. Hoy nosotros sí sabemos dónde están las personas, pero también sabemos qué compran, qué comen, cuándo duermen, cuáles son sus amigos, sus ideas políticas, su vida social.5

A través del big data, los grandes números permiten prever comportamientos estadísticamente probables y, sobre todo, aprender de las experiencias anteriores. La información fluye, surgen nuevas formas de procesarla y, a partir de ahí, de lograr un conocimiento sumamente detallado de la población, desde los estados de ánimo hasta los consumos, pasando por los hábitos para moverse o quiénes son sus amigos. Quien accede a esa información y tiene la capacidad de procesarla posee una poderosa herramienta para influir sobre la población.

¿Qué pasa con este conocimiento cuando se lo lleva al terreno de la política? La pregunta no es totalmente nueva: de la misma manera que durante décadas los empresarios encargaron encuestas para vender, por ejemplo, champú, los políticos comenzaron a pedir a sus asesores que midieran el pulso de la sociedad. Con esa información supuestamente representativa, parcial y muchas veces poco confiable, los candidatos debían tomar registro de quiénes podían ser sus potenciales votantes y diseñar sus mensajes con cuidado para seducir, pero sin espantar. ¿Cómo resolver esta tensión? La respuesta la da la experiencia con las redes sociales.

El producto político

En tiempos de redes, algunos candidatos comprendieron que las encuestas atrasaban y que, tal como hacen los analistas del marketing de productos, debían afinar y mejorar su información. En una sociedad segmentada en una miríada de identidades (vegetarianos, rockers, hippies, feministas, católicos, surfers, padrazos, deportistas, hipsters, hombres de negocios, pacifistas, homosexuales, inclasificables, etc.) y sus numerosos matices y zonas de cruces (el mundo lgbt es un buen ejemplo), resulta casi imposible formular mensajes capaces de seducir a la mitad de la población. ¿Cómo hacer? La respuesta surge de las redes sociales. El primero en aprovechar en escala este recurso fue Barack Obama, candidato en 2008 a presidente de Estados Unidos, uno de los países donde el uso de las herramientas digitales en la vida cotidiana está más desarrollado. Allí también tienen la particularidad de que no solo es optativo votar sino que además es necesario empadronarse previamente. Lo que hizo el equipo de Obama fue clasificar a los usuarios de las redes sociales de acuerdo con las posiciones políticas que revelaban sus amigos para reconocer a 3,5 millones de potenciales votantes demócratas no empadronados. Luego estudió sus intereses específicos y «customizó» las propuestas que vería cada uno en Facebook: leyes de género para las feministas, propuestas verdes para los ecologistas, retirada de Afganistán para los pacifistas y así. El nivel de precisión de esta campaña resultó muy superior al de los típicos afiches con candidatos sonrientes que no pueden decir nada por miedo de espantar a quien piense distinto. En lugar de un catch all, lo que hizo Obama fue más bien un catch each (tomar a cada uno).

Finalmente, el equipo de Obama determinó que al menos un millón de sus targets se había registrado para votar. Aunque es imposible conocer la efectividad exacta de la campaña digital o saber quiénes votaron finalmente, se puede ser generoso en las presunciones. Obama ganó por menos de cinco millones de votos en todo el país y en estados como Florida, clave para la victoria, la diferencia con su oponente fue de menos de 70.000. El demócrata ganó las elecciones apoyado por algoritmos que señalaron zonas sensibles de sus potenciales votantes e indicaron con qué sería mejor seducirlos.

Donald Trump aprendió la lección para la campaña de 2016: también mandó a analizar perfiles, pero lo hizo con todos los ciudadanos en condiciones de votar. La escala del trabajo era muy superior a cualquier antecedente. Para ese trabajo, Trump contrató a Cambridge Analytica, una empresa británica que había asesorado a Ted Cruz hasta su renuncia y también a la campaña a favor del Brexit. Con información aportada por Facebook, Twitter, pero también tarjetas de crédito, supermercados y bases de datos de todo tipo, se construyeron perfiles estadísticamente confiables de cada ciudadano para detectar a quienes podrían llegar a votar por el candidato. Uno de los hallazgos de esta metodología fue el descubrimiento de la veta de potenciales votantes del «cinturón de óxido» de Michigan o Wisconsin. Vale la pena aclararlo: el cinturón de óxido no es una creación del big data y posiblemente algún político con olfato podría haber visto en este sector de ex-trabajadores fabriles, actuales desocupados y expelidos del sueño americano a potenciales votantes de Trump. Lo que sí permitió el uso de big data fue detectar con precisión quiénes respondían a ese perfil, su nivel de frustración con el sistema, el rechazo que les generaban los inmigrantes o la decepción con la clase dirigente de los últimos años, que no parecía tenerlos en cuenta. En realidad, en estos casos, las hipótesis acerca de los porqués no son lo más relevante: lo importante era encontrar mensajes que interpelaran a los distintos perfiles para generar likes, compartir, retuits o lo que fuera posible. ¿Cómo lograrlo? Hilbert lo explicaba con un ejemplo:

  • 5.

    Daniel Hopenhayn: «Martín Hilbert, experto en redes digitales: ‘Obama y Trump usaron el Big Data para lavar cerebros’» en The Clinic Online, 19/1/2017.