Este 2019 es un año intenso a nivel electoral en América Latina. Durante el primer semestre, hubo elecciones presidenciales en El Salvador, Panamá y Guatemala. En esta segunda mitad del año llegará el turno de Argentina (estamos a escasos días de las PASO, instancia previa a los comicios de octubre), Uruguay y Bolivia de elegir primer mandatario. También habrá elecciones regionales en Colombia.
Por Infobae
Son momentos en que se espera una mayor circulación de información con contenido político en redes sociales. De ahí que sea necesario, más que nunca, estar alerta ante las posibles fake news que podrían viralizarse. Este fenómeno no responde a una plataforma en particular: están presente en WhatsApp, Facebook, Instagram, Snapchat o Twitter, solo por nombrar algunas. En este caso nos vamos a centrar en analizar la red social del pajarito, un ámbito donde, muchas veces, se congregan trolls y bots para manipular la información.
Antecedentes
Uno de los temas que marcó la última campaña presidencial en Estados Unidos fue el uso de las redes sociales para manipular las opiniones de los votantes, con el fin de interferir en las elecciones. El escándalo de Cambridge Analytica en Facebook es uno de los ejemplos. El otro fue la distribución de información falsa a través de Twitter, propiciada, principalmente, por una entidad rusa.
La red social llevó adelante una exhaustiva investigación a raíz de esto y en octubre de 2018 presentó un informe donde dieron cuenta de todas las cuentas que se utilizaron y cómo actuaron en la campaña presidencial dirigida a votantes estadounidenses.
En la investigación revelaron que se utilizaron 3.841 cuentas afiliadas a IRA, una agencia rusa responsable de haber orquestado la campaña de desinformación; también identificaron unas 770 cuentas “potencialmente originarias de Irán”, como parte de este entramado.
La campaña dirigió propaganda tanto a liberales y conservadores, dentro del espectro político y se abocó en diseminar información en particular sobre temas que despertaban mayor descontento en ambos lados de la grieta.
Más de 10 millones de tuits, 2 millones de imágenes, GIF, videos y transmisiones de Periscope estuvieron vinculadas a esta campaña. Había 123 cuentas principales, que se hacían pasar por medios de noticias o partidos políticos, que tenían al menos 10 mil seguidores.
Esos perfiles se dedicaban principalmente a publicar tuits nuevos y las otras 3.713 cuentas auxiliares se dedicaban a retuitear mensajes de esas cuentas principales. De ese modo amplificaban el alcance y viralizan contenido falso, según se explica en un análisis del Symantec.
Por su parte, desde Knight Foundation hicieron también una investigación donde notaron un incremento de actividad de noticias falsas y desinformación durante la campaña presidencial. Identificaron más de 6,6 millones de tuits vinculados a sitios con noticias falsas y conspirativas en el mes anterior a las elecciones de 2016; y unos 4 millones de tuis de este estilo desde mediados de marzo y hasta mediados de abril de 2017. O sea que la desinformación continuó siendo un problema post elecciones.
El 33% de las 100 cuentas más populares en el mapa postelectoral eran bots, es decir cuentas automatizadas. Cabe hacer la diferencia con los trolls, tal como se denominan a las cuentas, manejadas por humanos, cuyo registro violento busca bloquear los debates o desviar la conversación
Una investigación de Amnistía Internacional publicada en 2018 analizó los ataques sistemáticos y coordinados que se hacen, muchas veces a través de bots y ejércitos de trolls con el objetivo de silenciar debates. En el informe se habló de los ataques a periodistas y referentes de derechos humanos.
El asesor de comunicación política, Antoni Gutiérrez-Rubí, analiza en un artículo llamado Bots para la comunicación política la enorme cantidad de bots que existen y se ven, en diferentes plataformas y los usos que se le dan en el marco de la tecnopolítica.
Cómo combatir a los bots y los trolls
Existen algunas herramientas, desarrolladas por instituciones o desarrolladores independientes, que utilizan las API de Twitter y dicen que pueden ayudar a identificar bots.
También se dice que hay ciertos indicios que permiten al usuario sospechar si un perfil es automatizado. Entre estas señales se menciona el hecho de que no haya foto de perfil, que haya sido creado recientemente, que tenga una actividad demasiado alta o que se haya creado recientemente. Sin embargo, todas estas señales no son concluyentes y podrían fallar.
Infobae habló con Hugo Rodríguez Nicolat, director de Políticas Públicas de Twitter, en el marco de un evento para periodistas que brindó la red social en Buenos Aires. Consultado sobre cómo debe hacer un usuario para saber si un usuario es un bot o no, el directivo dijo que lo siguiente: “lo que el usuario puede hacer en Twitter es ayudarnos con el cumplimiento de las reglas, entonces si sospecha que una cuenta está automatizada o incumple nuestras reglas de autenticidad, en la propia plataforma puede reportarlo, puede iniciar el proceso de decir: ‘creo que esta cuenta es falsa’ y al hacer eso ya entra en un proceso de revisión que la plataforma hace para determinar si hay incumplimiento de las reglas o no”.
En el caso de que se quieran denunciar un tuit, hay que ir a la publicación en cuestión, hacer clic en el ícono de la flecha, seleccionar la opción “Denunciar”. Allí se desplegará un menú de 3 opciones para elegir, entre las que figuran “es sospechoso o spam”, “comete abusos o es perjudicial”. Cabe destacar que esto último sirve para denunciar agresiones recurrentes como las cometidas por los trolls, por ejemplo.
Es posible denunciar una cuenta, en cuyo caso hay que presionar sobre el perfil en cuestión, presionar en los tres puntos que figuran en el margen superior, elegir la opción “Denunciar” y, tal como se mencionó anteriormente, elegir el motivo por el cual se quiere hacer el reporte.
Luego la red social recibirá la denuncia, la evaluará y, si corresponde, enviará una notificación al usuario reportado. Luego de seguir estos procedimientos, según sea el caso, puede eliminar la cuenta. El usuario cuenta con la opción de apelar la decisión, siguiendo los pasos que le indicará Twitter cuando se le haya reportado, por mail, que hará efectiva la suspensión.
Twitter optimizó los procesos de la plataforma para evitar que la red social sea utilizada para manipular la información o fomentar el acoso o violencia. “Nuestras reglas tienen como objetivo garantizar que todas las personas puedan participar en la conversación pública de manera libre y segura”, dice en el blog oficial de la compañía.
La red social analiza 9,9 millones de cuentas semanalmente en todo el mundo para determinar si se trata de bots o perfiles que de alguna manera incumplen con las reglas de Twitter. La red social, entre otras cosas, establece que no está permitido publicar información privada (como puede ser el domicilio) de otras personas sin su autorización o permiso; suplantar la identidad e otras personas, grupos u organizaciones para engañar o comunicar una idea equivocada; enviar spam, lanzar amenazas violentas de manera sistemática y explícita.
Este año hubo un incremento del 214% de la remoción de cuentas en comparación con el año pasado. También, gracias a las nuevas técnicas empleadas, se registró un 32% de disminución en reportes de Spam. “La revisión de automatización es muy profunda y requiere de un equipo que utiliza tanto tecnología como proceso humano para determinar si es una cuenta falsa o no”, subrayó Rodríguez Nicolat.
Twitter también informa de manera más proactiva las decisiones que toma en relación a estos temas. Cada 6 meses se publica un reporte de transparencia en Twitter. “Desde hace dos semestres incluimos temas sobre lo que llamamos manipulación de la plataforma y ahí incluimos la remoción que hacemos de cuentas automatizadas”, concluyó el directivo.
En julio de 2018, Twitter eliminó 70 millones de cuentas que consideraba inactiva, que parecían ser bots, o que generaban spam. Es otro ejemplo de cómo impactaron el cambio de políticas en esta plataforma.
¿Y con esto alcanza? Son medias de prevención que se vienen implementando desde hace un tiempo y que ayudaron a mejorar la conversación digital y a combatir la manipulación, según dicen dese la red social. Pero es solo parte del proceso. Los usuarios, además de poder reportar cuentas o tuits que incumplan las normas; o de bloquear y silenciar usuarios, tiene que estar alerta.
Como siempre, el usuario tiene que aplicar su sentido común y dudar antes de compartir cualquier información. Como regla general, antes de darle retuit a un contenido hay que ver si hay indicios que podrían dar a pensar que la foto es falsa o el video está manipulado. En esta nota, por ejemplo, se mencionan varias herramientas y estrategias a tener en cuenta para no caer en engaños.