La creciente dificultad para detectar bots y perfiles falsos en campaña
Madrid
Un bot es un programa que actúa en Internet periódicamente o cuando se produce algún suceso. Más de la mitad de la información que circula por la red está producida por estos programas, que se encargan de tareas tan variopintas como recopilar información de páginas web, buscar noticias o 'charlar' con clientes de tiendas de comercio electrónico.
Y sí, también operan en Twitter, y esto no es necesariamente malo, a pesar de su mala fama en esta red social. Lo malo es que se usen para engañar a la opinión pública, haciéndose pasar por votantes que expresan su opinión o distribuyendo con intención aviesa noticias favorables, desfavorables o directamente falsas sobre un candidato o partido. A estos programas nos referimos cuando hablamos de bots políticos.
Identificar estos bots era bastante sencillo hace pocos años, pues solo había que buscar en su comportamiento ciertos patrones de conducta que los delataran: publicación masiva, horarios de activación fijos o previsibles, contenido duplicado... Pero con el tiempo se han perfeccionado hasta el punto de que son necesarios programas de inteligencia artificial para detectarlos entre los miles de millones de interacciones que se producen cada día en las redes sociales.
¿Cómo detectar un bot oculto en un perfil de Twitter?
Recopilando información indiciaria: ya sea cuantitativa, como la antigüedad -que el perfil sea reciente-; la actividad -que publique con demasiada frecuencia-; la coordinación -que actúe de forma conjunta con otros perfiles-. O cualitativa, como la forma de escribir -el uso de determinadas palabras o giros gramaticales-; la intención -la exaltación o denostación de personas o partidos; el aspecto -la foto de perfil falsa o duplicada-; o la intoxicación -la difusión de bulos o libelos-; entre otras muchas variables.
Pero se trata de información indiciaria. No supone por sí misma ninguna prueba de que detrás de esos perfiles se encuentre un bot político. Ni siquiera una persona con malas intenciones. De hecho, nada podría demostrarlo fehacientemente salvo pegar una patada en una puerta, descubrir al individuo o individua con las manos en el teclado e interrogarlo adecuadamente. Un procedimiento nada recomendable en un país democrático.
La propia red Twitter, que dispone de información de primera mano, solo ha podido detectar 130 cuentas falsas, de apoyo a Pablo Casado, que desactivó justo antes de que comenzara la campaña electoral para evitar que los autores tuvieran tiempo de abrir otras.
Y detrás de esas cuentas no tendría que haber necesariamente bots. Solo dos docenas de personas, cada una operando manualmente con un puñado de esas 130 cuentas falsas, podrían haber creado el paraíso o el infierno de un candidato, en este caso Casado, intoxicando todas sus intervenciones con comentarios aduladores o fuera de tono. Hablamos de personas, no de sistemas de inteligencia artificial. Unas pocas personas, con tiempo y conocimientos suficientes, podrían exaltar o arruinar la imagen de un político aunque solo sea por unas horas, simplemente actuando de forma conjunta, con una estrategia común, en el momento adecuado.
Y esto sucede hoy. Pero a tenor del avance de la inteligencia artificial, seguro que un futuro no muy lejano podrán crearse redes de bots que actúen diariamente como usuarios algo tímidos de una red social y se conviertan en extrovertidos durante una campaña política, para orientar la opinión pública en un determinado sentido. Tal vez esta red ya exista en este preciso instante y no pueda ser detectada porque sus miembros 'vuelan' por debajo del radar de los programas detectores.
Pero, actualmente, sería mucho más barato y efectivo que un partido pidiera en todas sus sedes y agrupaciones que afiliados y simpatizantes apoyen la opinión del partido en las redes sociales, aunque solo sea durante acontecimientos puntuales, como un debate televisivo. ¿Sería ético? Sí, si se hace a cara descubierta e informando de la afiliación. ¿Sería lícito? Sí, como cualquier otra iniciativa de propaganda política. Pero situada en el siglo XXI.
Y para terminar, un ejemplo sobre la dificultad para probar la existencia de bots y perfiles fraudulentos en esta misma campaña electoral. A continuación, una lista con el número de retuiteos de aquellos perfiles de Twitter con una antigüedad no superior a tres meses, agrupados por los partidos a los que han apoyado:
¿Es la actividad de estos perfiles recientes que apoyan a VOX una actividad sospechosa?
Sí. En solo tres meses de vida en Twitter, apenas 2.000 perfiles han retuiteado a candidatos y candidatas de la formación de Santiago Abascal más de 12.000 veces, un promedio de 6,1 veces por perfil, muy superior al de los que han apoyado a otros partidos. ¿Es una actividad fraudulenta? No hay pruebas para demostrarlo. De momento.
La única certeza sobre la manipulación electoral en redes sociales nos la ha dejado la historia reciente, con el caso de Cambrige Analytica: El mayor riesgo es que las mejores herramientas de manipulación y control de la opinión pública estén al alcance del mejor postor.