¿Has leído o escuchado que algunas cuentas de redes sociales son definidas como bots, cyborgs, trolls o cuentas marioneta? ¿O que todas ellas son parte de una botnet o una stotorfing? Estas etiquetas suelen escucharse en medio de la confrontación política y cuando se enciende el debate sobre ciertos temas. Así que para entender su significado y comprender cómo se comportan estas cuentas para manipular o distorsionar el discurso dentro de redes como Twitter, entrevistamos a tres especialistas. Quédate para escuchar lo que nos explicaron.
Antes de continuar, no olvides suscribirte a nuestro canal y activar las campanitas de notificaciones para que no te pierdas de ningún video nuevo de El Sabueso. La pandemia por COVID, manifestaciones y la polarización de opiniones han puesto en evidencia que algunas cuentas de redes sociales son utilizadas para impulsar una tendencia de manera artificial, ya sea con fines políticos o para desinformar. En México, por ejemplo, Twitter eliminó recientemente una red de 276 cuentas inauténticas que compartían contenido cívico.
en apoyo de iniciativas gubernamentales relacionadas con la salud pública y los partidos políticos. Y en el último año, Facebook reportó que más de 2.000 cuentas y 1.900 páginas fueron eliminadas por comportamiento inauténtico, muchas de ellas relacionadas con las elecciones intermedias de México en 2021. No obstante, para quienes somos usuarios de redes sociales, no siempre es fácil identificar ese tipo de comportamiento. Carlos Piña, doctor en Ciencias Computacionales, nos explica qué es un bot, que es un cyborg, que es un sock puppet o cuenta marioneta y un troll.
Básicamente en Twitter podemos encontrar, digamos, una fauna que la podemos clasificar en muchos tipos de cuentas. Se pueden clasificar en cuentas bots, en cuentas marionetas o sock puppets, en cuentas orgánicas y también tenemos como, digamos, a las cuentas cyborg. Tenemos que diferenciar que el bot es netamente computacional, es un programa, es un conjunto de líneas de código en resumen, pero las cuentas marioneta... Esas cuentas sí pueden ser manipuladas y manejadas por seres humanos. El soft poppet, como su nombre lo dice, es una cuenta marioneta.
Y vamos a pensar que una persona puede controlar dentro de su misma cuenta de Twitter hasta 10 cuentas adicionales, lo que llamamos multicuenta. Entonces esa misma persona va a generar 10 perfiles diferentes, por así decirlo, y con esos 10 perfiles va a atacar, va a amplificar, va a incluso a generar... tener conversaciones entre él mismo para hacer de cuenta que son un conjunto, un colectivo de personas, cuando en realidad es una sola persona manejando muchas cuentas. Y la cuenta troll son estas cuentas que muy probablemente sí pueden ser identificables, sí puede ser una persona física que exista, que tú puedes identificar. Y muchas personas incluso de la política, la parándula, la música, se han vuelto troles, les encanta molestar a la gente.
Se encarga de molestar, de hacer bullying, de humillar y de avergonzar a otro tipo de personalidades. Y que también se mete con personas que sí existen, ¿no? Las cuentas cyborg, yo creo que este tipo de cuentas son las que de repente trabajan de las 10 de la mañana a las 1 de la tarde.
Son cuentas que nada más están replicando mensajes que están automatizados, que parecen mucho al bot. Es la combinación entre una cuenta automatizada y una persona, es decir, que a veces se comporta como bot y a veces como una persona real. Especialistas aseguran que esas categorías y formas de comportamiento aplican para todas las redes sociales, además de Twitter. Víctor Hugo Abrego, del Signal Lab del ITESO, asegura que con el tiempo ha sido más difícil identificar ese tipo de cuentas que distorsionan el debate digital. Quizás hasta hace unos siete años o diez años, la manera artificial, es decir...
no orgánica, es decir, no espontánea, ni no, digamos, del todo voluntaria de personas para producir tendencias visibles o conversaciones que sobresalieran por encima de otras. Era mucho más evidente, era mucho más fácil identificar una serie de cuentas que tenían ciertos indicadores numéricos que nos permitían ver que solamente interactuaban entre sí. Sin embargo, el comportamiento automatizado es algo que sí vemos con cada vez más recurrencia.
Eso... ha ido sofisticándose cada vez más y hoy en día en distintos contextos a nivel nacional y a nivel internacional se ha ido convirtiendo incluso en un objeto de estudio, se le llama en redes algo así como estrategias de influencia, porque ahí abarca cuestiones desde marketing hasta manipulación, teorías de conspiración, campañas políticas. Para entender cómo funciona el comportamiento automatizado del que Víctor Hugo nos habló, es momento de hablar de una botnet o red de bots. y el astroturfing, o el intento de crear una impresión de pollo a alguna idea en particular. No operan de manera individual estas cuentas.
Entonces es cuando dentro de la investigación hay un término que se le conoce como botnets o redes de bots. Que de entrada tú identificas que fueron automatizadas esas cuentas, que hay un algoritmo detrás para reproducir contenido, pero lo interesante o el comportamiento en el que buscan incidir es precisamente amplificar una narrativa, puede ser un hashtag, o simplemente posicionar un tema que no necesariamente logre llegar a los trending topics, pero que sí logra influir en eventos que... que son claves para un país como unas elecciones o que pueden ser durante una crisis un tema social fuerte como protestas.
Esteban nos cuenta que quienes están detrás de estas cuentas cuidan mucho la cantidad de mensajes que se emiten por día para no ser identificados fácilmente. La cantidad de tweets o retweets que puede emitir una persona en un día van de 70 a 74. Si la cantidad de mensajes supera esa cantidad, probablemente estemos hablando de un bot. También es importante recordar que si un grupo reducido de cuentas se enfocó en posicionar un tema, probablemente se esté hablando de un comportamiento inauténtico.
Lo que ha descrito Esteban es lo que expertos llaman azotorfing, una práctica donde el objetivo es engañar al público, dando la falsa impresión de que existe un apoyo u oposición genuinos de base para un grupo o política en particular. Seguramente ahora te preguntarás, bueno, ¿y ahora qué puedo hacer para no caer en la manipulación? Lo importante es que, como sucede con la desinformación, Antes de compartir, verifique la fuente y contraste la información. Herramientas básicas que antes de dar el like o antes de dar el retweet, entren a la cuenta y vean cuándo se creó, cuántos seguidores tienen, cómo se describe, cuánto de su contenido es producido y no únicamente reproducido y cuál es el encuadre o el sesgo, el contenido que al menos en una scrolleada uno puede identificar.
Recuerda que la lupa del sabueso de Animal Político está para informarte, así que si tienes alguna duda... Ponla en los comentarios y nosotros la resolvemos.