Facebook cerró casi 600 millones de cuentas falsas en lo que va del año

La empresa hace este trabajo con tecnología y equipos moderadores

Facebook eliminó 583 millones de cuentas falsas, 837 millones de contenidos no deseados (spam) y más tres millones y medio de piezas con violencia gráfica en el primer trimestre de 2018, según publicó en su Informe de Transparencia.

La red social reveló por primera vez datos numéricos sobre contenido removido por violar sus normas comunitarias en seis áreas: violencia gráfica, desnudez de adultos y pornografía, propaganda extremista, discurso de odio, spam y cuentas falsas. 

La forma en que la empresa lleva adelante este trabajo es mediante tecnologías basadas en aprendizaje automático (machine learning), pero también con equipos de moderadores que revisan los contenidos que circulan por la red social.

"Puede ser que un contenido cuente con muchas visualizaciones pero tenga un nivel de severidad bajo, mientras que hay otros que son vistos pocas veces pero tienen una severidad alta", ejemplificó Alex Schultz, vicepresidente de Analítica de Datos de Facebook.

Para desarrollar la tarea de revisión de contenidos, Schultz indicó que otra técnica que utilizan es priorizarlos con la variable del "aquí y ahora": "Por ejemplo, cuántas veces fue vista una determinada pieza en la última hora".

Entre las cifras más significativas está la de cuentas falsas, porque es una "acción clave para combatir el spam", explicó. En este punto, afirmó que eliminaron "837 millones de piezas con mensajes no deseados en el primer trimestre de 2018".

"La clave para combatir el spam es eliminar las cuentas falsas que lo propagan. En el primer trimestre de 2018, desactivamos alrededor de 583 millones de cuentas falsas, la mayoría de ellas dentro de los primeros minutos de registro", añadió. 

En el caso de discurso de odio, Facebook retiró dos millones y medio de contenidos en el primer trimestre de 2018, mientras que eliminó o aplicó etiquetas de advertencia en aproximadamente tres millones y medio de piezas con contenidos de violencia en el mismo período. 

Sobre la "propaganda terrorista", la red social explicó en su informe que lo define "como organizaciones o individuos que participan en 'actos premeditados de violencia contra personas o propiedades para intimidar a una población civil, gobierno u organización internacional con el fin de lograr un objetivo político, religioso o ideológico'".

"Eliminamos contenido que muestra apoyo o defensa de estas organizaciones, individuos y sus actos", indicó, y afirmó haber eliminado casi dos millones de contenidos vinculados a "propaganda extremista" en el período analizado. 

(Télam)

COMENTARIOS

*Los comentarios que integran esta discusión no representan la opinión de RosarioPlus. Son opiniones personales de los usuarios

Seguí leyendo