Textos y fotos »

Cómo acabar con los bots que contaminan internet

Diario- Javier Salas 30/11/2017
Etiquetar cuentas, limitar tuits, imitar la Wikipedia... Expertos proponen cómo acabar con el engaño
 

En 2014, Filippo Menczer se vio metido en el ojo del huracán, en el centro de una envenenada controversia política, por un modesto proyecto de investigación que dirigía en la Universidad de Indiana. Algunos políticos republicanos cargaron con todo contra la financiación pública de su proyecto, Truthy, dedicado a investigar el papel de los bots de las redes sociales en la manipulación política. "Fuimos atacados por poderosos legisladores que etiquetaron nuestra investigación como políticamente motivada y contraria a la libertad de expresión, y trabajaron activamente para tumbarla", recuerda Menczer. Hoy esos políticos republicanos tienen un presidente en la Casa Blanca y todo el mundo se pregunta cómo parar la intoxicación política de los bots.

Twitter detecta en torno a 3,3 millones de cuentas sospechosas a la semana y algunos cálculos señalan que habría unos cincuenta millones de bots. ¿Cómo frenar la amenaza de estas cuentas fraudulentas, usadas para influir en procesos democráticos, sin interferir en el funcionamiento de redes con millones de usuarios legítimos? Menczer, cuya investigación sigue dedicada al diseño de mejores algoritmos de detección (con un éxito del 75%-95%), aplaude que las plataformas ya estén tomando medidas para suspender cuentas que violan sus términos de servicio. "Pero no anuncian sus algoritmos de detección, ni comparten datos sobre estas acciones, por lo que no hay forma de que los investigadores evalúen de forma independiente la efectividad de sus métodos", critica.

EL PAÍS ha contactado a media docena de especialistas, además de la propia Twitter, para analizar qué puede hacerse para afrontar este problema y sugerir posibles mejoras. Algunas son sencillas, otras podrían chocar contra el modelo de negocio de la multinacional y otras serían controvertidas, como las que sugiere Menczer: "Dado que los usuarios propagan información de baja calidad como noticias falsas, la plataforma podría limitar las actividades de publicación de cuentas automáticas y dificultar a los usuarios compartir artículos que no han leído".

Otro especialista, el investigador de Wellesley y Harvard Takis Metaxas, no niega que "Twitter debería ser más agresivo para detener bots maliciosos", pero considera injusto que se carguen las tintas en esta plataforma, precisamente porque es más abierta. "El verdadero problema vino a través de Facebook. Es una red mucho más grande y popular y tiene control total sobre lo que sus usuarios ven y lo que no ven. Me parece irónico que nos estemos centrando en Twitter, que permite ver sus datos, e ignorar Facebook, que los oculta todos", critica. Como Facebook no deja trastear en su motor, se publican muchos menos estudios que le saquen los colores por su opaco papel en la intoxicación política.

Metaxas propone una medida clara: exigir la verificación a través de un número de teléfono, que podría ralentizar el crecimiento de bots, aunque es una opción que podría chocar con otros aspectos como la privacidad. La mayoría de los especialistas señala una posibilidad que podría ser muy útil: del mismo modo que hay una marca para identificar a los usuarios verificados, podría incluirse otra que etiquete los bots como cuentas automatizadas para que, al menos, todos puedan reconocerlas de inmediato.

Para ello, Twitter podría dejarse ayudar por los propios usuarios, como propone Ben Nimmo, del laboratorio de investigación forense digital del Consejo Atlántico, aunque también propone que se contrate más personal. "Algunos son absurdamente fáciles de detectar a simple vista, pero son suficientemente inteligentes como para superar las barreras automáticas", señala este investigador citado por ProPublica por su trabajo cazando bots. "Por eso se debería facilitar que los usuarios reporten bots, no solo spam". Además, sugiere, la plataforma debería encontrar alguna forma de señalar las publicaciones individuales que se han publicado automáticamente, "de modo que los usuarios puedan detectar los bots por sí mismos".

Los especialistas también señalan que se utilicen durante el registro sistemas de verificación tipo reCAPTCHA, que detectan si es un humano quien abre la cuenta o es un proceso automatizado con intenciones aviesas. Desde Twitter responden que han creado sistemas para identificar intentos sospechosos de iniciar sesión, incluidos los que podrían ser automatizados. Estas técnicas permiten a la compañía detectar unos 450.000 inicios de sesión sospechosos cada día gracias a sistemas de inteligencia artificial contra el spam. Además, desde junio de 2017 han suspendido más de 117.000 aplicaciones maliciosas por abusar de su API (interfaz para programar aplicaciones ajenas), responsables de más de 1.500 millones de tuits "de baja calidad" solo este año.

La Wikipedia como ejemplo

Los expertos también reclaman que estas plataformas sean más abiertas al análisis externo y que no se limiten a borrar definitivamente las cuentas fraudulentas, sino que las mantengan vivas pero ocultas a los usuarios, para que los investigadores puedan seguir estudiando su comportamiento. Otros ponen a la Wikipedia como ejemplo: la popular enciclopedia online cuenta con una estricta política que todos los bots deben cumplir. Otros creen que es una carrera sin fin en la que los malos siempre llevarán la delantera, por lo que la solución no puede ser tecnológica. Facebook acaba de proponer que los usuarios suban un selfie para demostrar que no son bots.

Lisa-Maria Neudert, de la Universidad de Oxford, recuerda que el problema es complejo, puesto que hay bots malévolos, pero también bienintencionados. Sirven para alertar de desastres naturales, para advertir de los niveles de calidad del aire o para avisar de averías en el transporte público, por poner unos ejemplos. También ayudan a hacer más transparente la democracia, como en el caso de Canadá, donde hay bots que tuitean cada vez que alguien con una dirección IP del gobierno intenta alterar una entrada de Wikipedia sobre un problema gubernamental.

"Twitter ya está eliminando varios millones de cuentas cada mes para tratar problemas de odio y propaganda", explica Neudert, pero advierte de que la dinámica del problema es un campo minado para la compañía: "Si Twitter elimina bots, afectará a los bots positivos. Si Twitter elimina por error cuentas de usuarios legítimos, corren el riesgo de perder usuarios", afirma la especialista.

La propia compañía destaca esta idea: "Somos conscientes de las implicaciones de que una persona sea acusada falsamente de ser un bot o asociada con interferencias electorales, y nos tomamos muy en serio nuestra obligación de proteger la privacidad y seguridad del usuario", explican fuentes de la empresa. Twitter recuerda que está prohibido —y se suspenden las cuentas de forma proactiva— crear múltiples cuentas, la publicación repetida de temas en tendencia (Trending Topics) para tratar de llamar la atención o la publicación repetida de actualizaciones duplicadas, por ejemplo.

Menczer sigue desarrollando herramientas públicas que permitan a los usuarios diagnosticar y lidiar con este problema. Por ejemplo, en la web Botometer cualquiera puede analizar cuentas de Twitter y hacerse una idea si se comportan como bots o como humanos. "Botometer se puede utilizar junto con otras herramientas de nuestro laboratorio para estudiar cómo los memes o los hashtags se difunden en Twitter y quién los comparte", señala Menczer. Ahora están trabajando en una nueva versión de otra herramienta, Hoaxy, que se dedica a rastrear la propagación de desinformación. La idea es integrarla a partir de 2018 con Botometer para estudiar el papel de los robots sociales en su difusión.