El comportamiento en Twitter será la medida que utilice la red social para determinar si se trata de una cuenta real o de una spammer. ¿Cómo es eso? Es que según la estrategia anunciada este martes por la empresa, gracias a una nueva tecnología que identifica el comportamiento de los trolls, se los podrá sacar de la conversación sin la necesidad de esperar a que otros usuarios los denuncien.

“Hay comportamientos que no incumplen nuestras reglas pero que desvirtúan la conversación”, explicó David Gasca, director de Gestión de Producto de Twitter. Por esa razón no pueden eliminar esas cuentas, pero sí relegarlas a un segundo plano y hacer que no aparezcan en las búsquedas ni en las conversaciones.

Desde el pasado marzo, cuando la tecnológica -que tiene 330 millones de usuarios en todo el mundo- anunció que dedicaría todos sus esfuerzos a mejorar la calidad y la “salud” de los diálogos en Twitter, el 1% de las cuentas (cerca de 3,3 millones) han recibido denuncias por abusos. Sin embargo, muchos de esos avatares no incumplen las reglas de juego ni violan sus políticas.

Lo que sí hacen los trolls es “distraer la conversación en Twitter, la embrutecen, tergiversan y distorsionan”, aseguran desde la compañía.

¿Qué considera Twitter un comportamiento inapropiado? David Gasca pone un ejemplo. “Vas al buscador e introduces World Cup Game. Te aparecen un puñado de tuits sobre ese contenido y en la parte inferior un enlace con el que alguien pretende vender una camiseta. No tiene nada que ver con el torneo, pero está usando el hashtag #WorldCup. La cuenta se creó una hora antes y los likes que acumula son de cuentas que también se crearon una hora antes”.

Gracias al machine learning -lectura mecánica inteligente- ahora la empresa logró identificarlos incluso antes de que actúen y a la revisión de comportamientos humanos, la compañía analiza cómo se presentan los tuits en los diálogos y en las búsquedas. A su vez, con esa tecnología catalogan los patrones de comportamiento.

Hay muchas formas de identificar una cuenta falsa, como por ejemplo el tiempo que hace que se creo y la cantidad de tuits que realizó, la interacción con otras cuentas creadas en el mismo momento, entre otros factores.

“El resultado es claro: las personas que contribuyan a una conversación más saludable tendrán mayor visibilidad tanto en las conversaciones como en las búsquedas”, explican desde Twitter.

En sus primeras pruebas para testear ese modelo en diferentes partes del mundo, han registrado un descenso del 8% en las denuncias de abuso en las conversaciones y un 4% en las búsquedas. “Menos personas están viendo tuits que distorsionan su experiencia en Twitter”, cuenta Del Harvey, vicepresidenta de Seguridad de Twitter.

Las cuentas que “molestan” pero que no incumplen sus normas, seguirán en la plataforma y estarán disponibles siempre que el usuario teclee ‘mostrar más respuestas’ o si configura en su ajuste de búsquedas que se le muestre todo.