¡Alerta Bots! Taller de identificación de bots

El nacimiento y extensión de Internet ha puesto nuevas posibilidades y retos para la comunicación política y la participación civil de diverso tipo. Durante las campañas electorales, el ciberespacio se ha convertido en un nuevo escenario de disputa por el voto, cada vez de forma más relevante. En España, los múltiples comicios celebrados en 2019 han despertado el interés de la ciudadanía, científicos sociales y periodistas por las nuevas estrategias computacionales popularizadas entonces.

Los medios de comunicación han publicado titulares como “La campaña más intoxicada” (El Salto), “La creciente dificultad para detectar bots y perfiles falsos en campaña” (SER) “Los bots, la segmentación ideológica y la encriptación crean la tormenta perfecta para la manipulación electoral en Internet” (El Diario). Estas informaciones muestran una preocupación creciente por las prácticas ilícitas mediadas por ordenador, que pueden contribuir al clima de desinformación en las redes sociales donde el electorado debate y se informa sobre política. 

Concretamente, los bots son susceptibles de marcar agenda-setting y modificar el signo del debate político online a favor de un partido, candidato o propuesta electoral concreta. Un mayor conocimiento de estas prácticas de desinformación evita la manipulación en los procesos electorales y una mayor rendición de cuentas por parte de los partidos políticos que las realizan.

Bajo este contexto, proponemos un taller que facilite la auditación de los bots políticos en Internet por parte de los usuarios regulares de los medios sociales, quienes no necesariamente cuentan con habilidades para desarrollar acciones de big data para el análisis de la participación en redes. El seminario tiene como objetivo último la posibilidad de desarrollar una destreza en el alumnado que, a través de las prácticas mostradas en este, le permita fiscalizar la actividad en Internet sin un conocimiento técnico o tecnológico avanzado.

Desde el crecimiento de Internet en los años noventa, los partidos políticos han reformulado sus estrategias de comunicación política y adquirido nuevas herramientas para la difusión y la interacción con el electorado. También los votantes han comenzado a emplear las diversas herramientas electrónicas para participar en la campaña electoral, informarse sobre política y apelar a las diferentes formaciones y sus representantes.

Los partidos inauguraron su presencia en la Red a través de páginas web estáticas, que en ocasiones incluían correos electrónicos para comunicarse con la ciudadanía. A partir de 2008 comienzan a crear perfiles concretos en redes sociales como YouTube y Facebook. Desde entonces, el número de perfiles en estas plataformas sociales ha ido aumentando y se ha extendido a otros espacios online (como Twitter) hasta convertirse en herramientas estratégicas en su plan de distribución de contenidos y captación del voto.

En la actualidad, las nuevas prácticas de campaña se relacionan con la segmentación del electorado y la aplicación de técnicas basadas en la inteligencia artificial. Por un lado, la extracción de datos personales de los usuarios de Internet facilita su categorización según su personalidad, para predecir a partir de esa clasificación los mensajes que los activarán políticamente, como sucedió con Cambridge Analytica. Por otro lado, entre las diversas herramientas automatizadas que ejecutan diversas tareas, los bots sociales imitan el comportamiento humano para enviar mensajes e interactuar en redes sociales.

Aunque existen evidencias del uso de bots desde principios de la segunda década del siglo XXI, ha sido en los últimos años cuando su comportamiento se ha extendido y se ha popularizado cada vez más. Existen diversos estudios que identifican el uso de estos procesos automatizados tanto en el extranjero, en las elecciones de Estados Unidos donde resultó vencedor Donald Trump, como en el territorio estatal, donde se emplearon en el referéndum de autodeterminación del 1 de octubre en Cataluña o en las elecciones generales de 2019.

Todas estas estrategias han tomado el nombre de campaña electoral y son el escenario donde se enmarca este taller de identificación de bots.

Conceptos clave:

Campaña computacional: El conjunto de prácticas de personalización y distribución de los mensajes políticos basadas en las técnicas de extracción y segmentación del big data extraído de la interacción de los internautas en las diversas plataformas electrónicas.

Definformación: Ecosistema en el que se crean y producen informaciones de tipo engañoso, generalmente de forma intencionada. Los bots contribuyen a ella cuando viralizan contenido engañoso, como las fake news.

Astroturfing: Acciones coordinadas en redes sociales que simulan ser espontáneas, pero que en en realidad se encuentran diseñadas y coordinadas por agentes concretos (como partidos políticos) y que emplean bots para la emisión de los mensajes e interacción.

Bots: Herramientas automatizadas capaces de llevar a cabo tareas de diverso grado de dificultad. Dada su capacidad para aplicarse a múltiples objetivos, estos han adquirido múltiples denominaciones con matices concretos, tales como chatbots, spam bots, bots políticos o bots sociales.

Bots sociales:  Herramientas que imitan el comportamiento humano en redes sociales, que pueden ser empleadas tanto para fines lícitos, como la creación de un feed de noticias, hasta otros con una ética más cuestionable, como la publicación y compartición de fake news.

Bots políticos: Bots sociales que cuentan con objetivos políticos, como pueden ser viralizar contenido de determinadas cuentas, marcar la agenda del debate online (generando Trending Topics, por ejemplo), enviar mensajes críticos a los adversarios políticos y voces disidentes, etc.

Duración: 2h

Con el objetivo de desarrollar la capacidad crítica de los estudiantes universitarios para discernir entre las cuentas de personas reales en twitter y las cuentas sospechosas de ser explotadas por bots, el taller se desarrolla en tres fases:

1.Contexto y evaluación previa (30min)

Contexto y evaluación previa

1.1. Explicación del contexto: Para poder poner en valor la adquisición de la competencia de detección de bots pensamos que es conveniente explicar de forma breve la evolución de la comunicación política en internet. A modo de contexto, entendemos que explicar cómo estas técnicas sirven para manipular les ayudará a comprender la escala del fenómeno.

(Diapositivas)

1.2. Pretest (15min): Para evaluar el nivel de competencia del alumnado, se realiza un test inicial con 10 cuentas de Twitter, de las cuales 5 son bots y otros 5 son cuentas reales. Se les da únicamente el nombre de la cuenta, para que ellos tengan la libertad de inspeccionarla con la herramienta que conozcan previamente y atendiendo a los parámetros que consideren oportunos.

(5 cuentas bot para el pretest)

2.Explicación y entrenamiento (1h 15min)

Explicación y entrenamiento

2.1. Puesta en común: Se exponen los resultados del pretest, para comentar los resultados y empezar a prestar atención a detalles concretos de las cuentas mostradas.

(Esta diapositiva está incluida en el siguiente punto)

2.2. Exposición de las características: Se explican las características/los elementos que ayudan identificar bots en Twitter. Se fomenta la lectura crítica de los contenidos en redes sociales y a afinar en la observación de los detalles cuando uno está en esa red social.

(Diapositivas)

2.3. Test (20min): Se realiza un test de autoevaluación en el que se incluyen, además de una batería de 10 preguntas similares a las anteriores, otras preguntas relacionadas con las características explicadas. Estas últimas, serán expuestas de forma interactiva y visual (con capturas de pantalla que focalizan la atención en la información concreta sobre la que reflexionar). El/la alumno/a deberá elegir tantos bots como considere oportuno de las cinco opciones que se les da (que contiene 2 bots, 2 reales y no lo sé). Asimismo, con el objetivo de identificar qué características les ha parecido más fáciles de analizar, también hay una pregunta abierta para que puedan expresarse con libertad.

(Descarga el cuestionario y la plantilla)

3.Debate y reflexión (15min)

Debate y reflexión

3.1. Puesta en común: Se exponen los resultados de las 10 primeras preguntas del test, que eran aquellas en las que solo se les daba el nombre del usuario para que pudiesen explorar lo que les interesase.

(Esta diapositiva está incluida en el siguiente punto)

3.2. ¿Qué podemos hacer?: Ahora que ya saben identificar bots con gran acierto ¿cuál es el siguiente paso? Esa es precisamente la idea. Se muestra una serie de alternativas por las que pueden optar y por las que otra gente ha optado para exponer estas cuentas. ¿Qué tipo de activismo se puede realizar a nivel usuario para actuar cuando encuentras un bot?

(Diapositivas)

3.2. Debate: A partir de las preguntas finales que aparecen en las diapositivas anteriores, se crea un debate en clase con el objetivo de poner en común las consecuencias que tiene el uso de bots con fines políticos en Twitter y sobre el tipo de herramientas que utilizamos para informarnos. Guiar hacia el terreno de la tecnopolítica.

Si quieres llevar a cabo el taller en tu centro y tienes cualquier duda, ¡escríbenos!, estaremos encantadas de ayudarte.

Para el taller que se presenta, se han elaborado dos tipos de materiales: una parte teórica que contextualiza el taller y una parte práctica que consiste en unos cuestionarios de libre acceso para la evaluación del taller y la reflexión individual y/o en grupo.

La teoría presentada en esta web incluye:

  • resumen del contexto histórico,
  • documento en formato presentación de clase
  • referencias a materiales complementarios.  

Estos apartados se han elaborado a partir de la revisión bibliográfica y el trabajo previo de las investigadoras en los ámbitos de la información y comunicación política en redes sociales, la competencia crítica de los usuarios en las estas redes  y el empoderamiento ciudadano a través de las mismas.

De las referencias consultadas se destacan dos informes, el primero de ellos de Amelia Acker (2018), se ha construido uno de los bloques teóricos sobre las características más evidentes de los bots en las redes sociales. En el informe, la autora expone una manera de identificarlos a partir de los metadatos públicos de los perfiles en abierto. Como menciona Acker, cada capa de información tal como el “nombre de usuario, la fecha y hora de publicación, las cuentas de followers y conexiones, los me gusta o compartidos, hashtags o etiquetas de localización. El conjunto de estas huellas da pistas a los lectores de cómo han sido producidos” (Acker: 2018, p. 8). Con estas pistas, los usuarios pueden aprender a diferenciar los perfiles más sospechosos de ser automatismos.

Asimismo, estas características desarrolladas por Acker han posibilitado la construcción de los indicadores que serán utilizados en los cuestionarios.

El segundo de los informes es el que ha motivado la parte práctica de este taller, ya que DATAPOLITIK (2019) ha elaborado un informe sobre la campaña del partido político VOX en Twitter desde el 18 de febrero de 2019, momento en el que se identifica el lanzamiento del hashtag político #SíguemeYTeSigoVox, relacionado por los investigadores en el mismo texto con cuentas sospechosas.

Con los datos arrojados sobre las cuentas falsas y su incidencia en la campaña electoral revelados en este informe de Datapolitik (2019), comenzó la búsqueda de posibles bots entre algunos de los usuarios mencionados por los investigadores  y se llevó a cabo una selección de perfiles dudosos relacionados con el hashtag.

Tras una búsqueda manual inicial, se realizó una segunda fase de verificación, comprobando las cuentas sospechosas seleccionadas con herramientas de identificación de acceso gratuito tales como:

  • Botometer: Esta herramienta revisa la actividad de las cuentas de Twitter que buscan en ella y ofrece una puntuación basada en cuánto se parece esa cuenta a un bot. Ha sido desarrollada en la Universidad de Indiana (EEUU).
  • Twittonomy: Analiza la actividad de la cuenta solicitada desde su creación y crea visualizaciones de dicha actividad. Entre otros servicios, genera análisis detallados de los tweets, retweets, respuestas, menciones, hashtags, etc. de las cuentas de Twitter.
  • Foller.me: Recopila el perfil del usuario solicitado y los últimos tweets. Analiza el contenido del tweet y muestra nubes de etiquetas con las palabras más populares. Asimismo, ofrece la fecha de incorporación a Twitter, la franja horaria en que se publican los tweets o la proporción de seguidores.
  • API de Twitter: La propia Interfaz de Programación de Aplicaciones (API) de Twitter, permite realizar búsquedas en su base de datos de palabras concretas (también hashtags), personas, lugares o intervalos de tiempo.

Utilizando las herramientas digitales a nivel usuario mencionadas y el filtro humano, se seleccionaron cerca de 60 perfiles que con alta probabilidad pertenecen a bots utilizados para la campaña de las elecciones generales en España de 2019 y que sirvieron de base para los cuestionarios que se presentan.1

En contraposición a los bots, se seleccionaron en la búsqueda, alrededor de 60 perfiles reales que sirvieran para completar las preguntas de los cuestionarios utilizados durante la validación del taller.2  

Los cuestionarios propuestos utilizan las cuentas identificadas para mostrar las distintas características del estudio de Acker (2018), convertidas en indicadores de evaluación, y observar la capacidad de los estudiantes de identificar aquellas cuentas que no son reales.

Se proponen tres estilos de preguntas:

  • Identificación de perfil: Pregunta de exploración, con respuesta sí, no o no lo sé.
  • Enfoque en las características: Se presentan cinco opciones (2 bots, 2 real y No lo sé), con capturas de pantalla que focalizan la atención en la información concreta sobre la que reflexionar.
  • Preguntas abiertas: Reflexión personal/grupal sobre el proceso del cuestionario y evaluación final de los bots, el contexto, la importancia de identificarlos y de actuar ante ellos, empoderando a los usuarios.

El motivo de utilizar el cuestionario como herramienta de evaluación deviene de la necesidad de elaborar un sistema de medición y convertir en indicadores las características del estudio propuesto por Acker (2018), para así poder recoger datos sobre la capacidad crítica de los estudiantes universitarios respecto de los bots en Twitter a través de unas características concretas.

El cuestionario es una de las herramientas más populares de evaluación de competencias mediáticas en contextos educativos (algunos ejemplos son: OECDComisión EuropeaMinisterio de Educación de EspañaMinisterio de educación de Francia o ACARA-Australia, entre otros) ya que permite ser replicado en múltiples contextos. Dado que estos materiales pretenden ser de uso público y replicables, se ha elegido este modelo de evaluación que consideramos posibilita su aplicación más allá de la presente investigación.

Herramientas para diseñar el cuestionario online

Existen múltiples herramientas gratuitas o con diferentes fórmulas de pago con las que se puede generar una encuesta online donde agrupar las preguntas previamente mencionadas. Señalamos algunas de ellas.

Herramientas para realizar los tests

Herramientas para realizar los cuestionarios

REFERENCIAS

Acker, A. (2018). The Manipulation of Social Media Metadata – Data&Society Research Group – https://datasociety.net/output/data-craft/

DataPolitik (2019). Espejismos en la red. Proyecto de la asociación Heurística. Disponible en: http://heuristica.barcelona/DataPolitikInformes/Espejismos.pdf

Actividad y materiales desarrollados por:

Iniciativa impulsada por:

Mediaflows

Con la colaboración de:

Para solicitar la realización del taller de forma presencial:

identificandobots@protonmail.com

  1. Dado que Twitter tiene reglas específicas para el cierre de cuentas que no sean reales, en el transcurso de la investigación, algunas de las cuentas iniciales se han cerrado y sustituido por otras de similares características. ↩︎
  2. Estos perfiles pertenecen a individuos reales y por tanto su uso no se incluye entre los materiales compartidos en esta web. ↩︎