La oscura utilización de Facebook y Twitter como armas de manipulación política
Las maniobras en redes se convierten en una amenaza que los gobiernos quieren controlar
Todo cambió para siempre el 2 de noviembre de 2010, sin que nadie lo notara. Facebook introdujo un simple mensaje que saltaba en el muro de sus usuarios, una ventanita que anunciaba las amistades que ya habían votado. Eran las elecciones legislativas estadounidenses y 60 millones de votantes vieron ese señuelo de Facebook. Cruzando datos de sus usuarios con el registro de votantes, la red calculó que fueron a votar 340.000 personas que se hubieran quedado en casa si no hubieran visto en su muro que sus amigos ya habían pasado por las urnas.
"Citar lo más estúpido que cualquier político diga es una manera de explotar los instintos más bajos de la gente. Eso está enturbiando el mundo entero", denunció el fundador de Twitter
Dos años después, cuando se jugaba la reelección Barack Obama, los científicos de Facebook publicaron los resultados de este experimento político en la revista Nature. Era la forma de mostrar músculo ante los potenciales anunciantes, el único modelo de negocio de la compañía de Mark Zuckerberg, que le reporta más de 9.000 millones de dólares por trimestre. Es fácil suponer lo mucho que habrán crecido los bíceps de Facebook desde que sacó a la calle a cientos de miles de votantes en hace siete años, cuando ni siquiera había historias patrocinadas.
Hace pocas semanas, el cofundador de Twitter Ev Williams se disculpaba por el papel determinante que había desempeñado esa plataforma en la elección de Donald Trump, al ayudar a crear un "ecosistema de medios que se apoya y prospera en la atención". "Y eso es lo que nos hace más tontos", aseguró, "y Donald Trump es un síntoma de eso". "Citando los tuits de Trump, o citando lo último y más estúpido que cualquier candidato político o cualquier otra persona diga, es una manera efectiva de explotar los instintos más bajos de la gente. Y eso está enturbiando el mundo entero", denunció Williams.
Cuando le preguntaron a Zuckerberg si Facebook había sido determinante en la elección de Trump, rechazó la idea como una "locura" y algo "extremadamente improbable". Sin embargo, la propia red social que dirige se jacta de ser una herramienta política decisiva en sus "casos de éxito" publicitarios, atribuyéndose un papel esencial en victorias de legisladores estadounidenses o en la mayoría absoluta de los conservadores británicos de 2015.
Salir de la burbuja
Se ha discutido mucho sobre su verdadero impacto desde que el activista Eli Pariser comenzara a advertir sobre el riesgo de las burbujas de opinión que estaban generando las redes. "Ese filtro, que termina reforzando nuestros propios argumentos, está siendo decisivo", advierte Gemma Galdon. Recientemente, la directora operativa de Facebook, Sheryl Sandberg, aseguró que la burbuja es menor en su plataforma que en los medios tradicionales (aunque negó tajantemente que su compañía pueda considerarse un medio). El 23% de los amigos de un usuario de Facebook tienen visiones políticas distintas de la suya, según Sandberg.
"Sabemos que las dinámicas de Facebook favorecen el refuerzo de opiniones, que todo se exacerba porque buscamos la aprobación del grupo, porque podemos silenciar a la gente que no nos gusta, porque la herramienta nos da más de lo que nos gusta. Y eso genera mayor polaridad", asegura Esteban Moro. Como muestra, un botón: un estudio reciente de Pew mostraba que los políticos más extremistas tienen muchos más seguidores en Facebook que los moderados. "Vivimos en regiones de las redes sociales completamente cerradas, de las que es muy difícil salir", asegura. Y propone probar el experimento de sus compañeros del Media Lab del MIT que han desarrollado una herramienta, FlipFeed, que permite meterte en la burbuja de otro usuario de Twitter, viendo su timeline: "Es como si te cogieran en helicóptero y te soltaran en Texas siendo un votante de Trump. Así te das cuenta de hasta qué punto vivimos en un ecosistema de gente que piensa igual que nosotros".
Lo cierto es que es el propio equipo de Trump quien reconoce que cabalgaron hacia la Casa Blanca a lomos de las redes sociales, aprovechando su masiva capacidad para alcanzar usuarios tremendamente específicos con mensajes casi personalizados. Como reveló una responsable del equipo digital de Trump en la BBC, Facebook, Twitter, YouTube y Google tenían trabajadores con despacho propio en el cuartel general republicano: "Nos estaban ayudando a utilizar la plataforma de la manera más eficaz posible. Cuando estás inyectando millones y millones de dólares a estas plataformas sociales [entre 70 y 85 millones en Facebook], recibes tratamiento preferencial, con representantes que se aseguran de satisfacer todas nuestras necesidades".
Y en eso aparecieron los rusos
La revelación de que Facebook permitió que se compraran, desde cuentas falsas ligadas a Moscú, 100.000 dólares en anuncios proTrump puso sobre la mesa el reverso tenebroso de la plataforma de Zuckerberg. Acosado por la opinión pública y el Congreso de EE UU, reconoció que estos anuncios habían alcanzado a 10 millones de usuarios. Sin embargo, un especialista de la Universidad de Columbia, Jonathan Albright, calculó que la cifra real debió ser de al menos el doble, al margen de que gran parte de su difusión habría sido orgánica, es decir, viralizando de forma natural y no solo por patrocinio. ¿La respuesta de Facebook? Borrar todo rastro. Y cortar el grifo para futuras investigaciones. "Nunca más podrá, él o cualquier otro investigador, realizar el tipo de análisis que hizo unos días antes", publicó The Washington Post hace una semana. "Son datos de interés público", se quejó Albright al descubrir que Facebook había tapado la penúltima rendija por la que se podían asomar los investigadores a la realidad de lo que sucede dentro de la poderosa compañía.
Esteban Moro, que también se dedica a buscar rendijas entre los opacos muros de la red social, critica la decisión de la compañía, en lugar de apostar por transparencia para demostrar propósito de enmienda. "Por eso intentamos forzar a que Facebook nos permita ver qué parte del sistema influye en los resultados problemáticos", asegura este investigador, que actualmente trabaja en el Media Lab del MIT. "No sabemos hasta qué punto está diseñado para reforzar ese tipo de comportamientos", señala en referencia a la difusión de desinformación políticamente interesada.
"Sus algoritmos están optimizados para favorecer la difusión de publicidad. Corregirlo para evitar la propagación de desinformación va en contra del negocio", explica Moro
Facebook ha anunciado que contará con casi 9.000 empleados para editar contenidos, lo que muchos consideran un parche en un problema que es estructural. "Sus algoritmos están optimizados para favorecer la difusión de publicidad. Corregirlo para evitar la propagación de desinformación va en contra del negocio", explica Moro. La publicidad, la fuente de ingresos de Facebook y Google, demanda que pasemos más tiempo conectados, interaccionando y clicando. Y para lograrlo estas plataformas desarrollan potentísimos algoritmos que han creado un campo de batalla perfecto para las mentiras políticas, en el que han proliferado medios que se hacen de oro viralizando falsedades y medias verdades polarizadas.
"Es imprescindible que haya un proceso de supervisión de estos algoritmos para mitigar su impacto. Y necesitamos más investigación para conocer su influencia", reclama Gemma Galdon, especialista en el impacto social de la tecnología y directora de Eticas. Galdon señala que han coincidido muchos fenómenos en el tiempo, como el efecto burbuja de las redes (al aislarte de opiniones distintas), el malestar social generalizado, la escala brutal en la que actúan estas plataformas, la opacidad de los algoritmos y la desaparición de la confianza en los medios, que al juntarse han generado "un desastre bastante importante". Moro coincide en que "muchas de estas cosas que están pasando en la sociedad tienen que ver con lo que sucede en estas redes" y apunta un dato: "Es el único sitio en el que se informa el 40% de los estadounidenses, que pasan allí tres horas al día".
La propaganda informática es "una de las herramientas más poderosas contra la democracia", según expertos de Oxford, y por ello las redes "necesitan rediseñarse para que la democracia sobreviva"
Sheryl Sandberg, la mano derecha de Zuckerberg, defendió la venta de anuncios como los rusos argumentando que se trata de una cuestión de "libertad de expresión". Bloomberg publicó que Facebook y Google colaboraron activamente en una campaña xenófoba antirrefugiados para que la vieran votantes clave en los estados en disputa. Google también aceptó dinero ruso por anuncios en YouTube o Gmail. No en vano, Facebook ha presionado durante años para que no les afecte la legislación que obliga a los medios tradicionales a ser transparentes en la contratación de propaganda electoral. Ahora, el Senado quiere legislar sobre la propaganda digital en contra de la presión de estas grandes plataformas tecnológicas, que apuestan por la autorregulación. Tanto Twitter como Facebook han manifestado estos días su intención de ser más transparentes en este apartado.
La responsabilidad deTwitter
A comienzos de verano el Instituto de Internet de la Universidad de Oxford publicó un demoledor informe en que analizaban la influencia que las plataformas digitales estaban teniendo en los procesos democráticos en todo el mundo. El equipo de investigadores estudió lo sucedido con millones de publicaciones en los dos últimos años en nueve países (Brasil, Canadá, China, Alemania, Polonia, Taiwán, Rusia, Ucrania y los Estados Unidos) y concluyeron, entre otras cosas, que "los bots [cuentas automatizadas] pueden influir en procesos políticos de importancia mundial".
Facebook, Twitter, YouTube y Google tenían trabajadores con despacho propio en el cuartel general de Trump: “Cuando inyectas tantos millones, tienes trato preferencial”
En EE UU, los republicanos y la derecha supremacista usaron ejércitos de bots para "manipular consensos, dando la ilusión de una popularidad online significativa para construir un verdadero apoyo político" y para extender el alcance de su propaganda. Y concentraron sus esfuerzos en los estados clave en disputa, que inundaron con "noticias basura". En países como Polonia y Rusia, gran parte de la conversación en Twitter está monopolizada por cuentas automatizadas. En estados más autoritarios las redes se usan para controlar la conversación política, silenciando a la oposición, y en los más democráticos aparecen las cibertropas para contaminarla interesadamente. Las plataformas no informan ni actúan porque pondrían "su cuenta de resultados en riesgo".
"Los bots utilizados para la manipulación política también son herramientas efectivas para fortalecer la propaganda online y las campañas de odio. Una persona, o un pequeño grupo de personas, puede usar un ejército de robots políticos en Twitter para dar la ilusión de un consenso a gran escala", asegura el equipo de Oxford. Y concluye: "La propaganda informática es ahora una de las herramientas más poderosas contra la democracia" y por ello las plataformas digitales "necesitan rediseñarse significativamente para que la democracia sobreviva a las redes sociales".
Zuckerberg dice que es una "locura" pensar que Facebook puede determinar elecciones, pero se jacta de hacerlo en su propia web
Twitter también ha borrado material irremplazable para conocer la influencia rusa en la elección de Trump. Más recientemente, investigadores de la Universidad del Sur de California han alertado del desarrollo de un mercado negro de bots políticos: las mismas cuentas que en su día apoyaron a Trump luego trataron de envenenar la campaña en Francia en favor de Le Pen y más adelante se pasaron al alemán colaborando con el partido neonazi Afd. Zuckerberg prometió hacer lo posible para "asegurar la integridad" de las elecciones alemanas. Durante la campaña, siete de las 10 noticias más virales sobre Merkel en Facebook eran falsas. ProPublica acaba de revelar que la red social toleró anuncios ilegales que difundían información tóxica contra el Partido Verde alemán.
Galdon trabaja con la Comisión Europea, a quienes considera "muy preocupados" desde hace unos meses, para dar respuesta a estos fenómenos pensando en un marco europeo de control que en la actualidad está muy lejos de fijarse. "Hay quien apuesta por la autorregulación, quien cree que debe haber un organismo de supervisión de algoritmos como con los medicamentos e incluso quien pide que se censuren directamente contenidos", apunta la investigadora. Pero Galdon apunta un problema mayor: "Le decimos a las plataformas que tienen que actuar mejor, pero no sabemos qué significa mejor. Las autoridades europeas están preocupadas, pero no saben bien qué pasa ni qué cambiar ni qué pedir exactamente".
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.