Facebook anunció una iniciativa millonaria para crear herramientas que permitan detectar "deepfakes", los videos -creados con técnicas de inteligencia artificial (IA)- que muestran a personas reales que hacen o dicen cosas ficticias, y que tienen "implicaciones significativas" para determinar la veracidad de la información online.

De la flamante iniciativa, bautizada "Reto de la Detección de Deepfakes", forman parte también Microsoft, la Asociación de IA y académicos de siete universidades, que trabajarán para crear "una gran base de datos o un sistema estandarizado" para detectar este tipo de videos.

Los deepfake -un acrónimo en inglés conformado por las palabras "aprendizaje profundo" (una técnica de IA conocida como deep learning) y "falso" (fake)- son falsificaciones muchas veces hiperrealistas y cada vez más comunes que permiten, por ejemplo, montar la cara de una persona sobre el cuerpo de otra sin que se note la edición.

"Queremos catalizar la investigación y el desarrollo en esta área y asegurarnos que haya mejores herramientas de código abierto para detectar deepfakes", señaló el CTO de Facebook, Mike Schroepfer, en un comunicado.

El Reto, que contará con una inversión de 10 millones de dólares, incluirá la construcción de "una base de datos y una clasificación, junto con financiación y premios para estimular a la industria a crear nuevas formas de detectar y evitar que los medios manipulados a través de la IA se utilicen para engañar a otros", precisó el directivo.

Para la empresa de Mark Zuckerberg, la aparición cada vez más común de los deepfakes representa "un problema en constante evolución, al igual que el spam", por lo que la idea busca unir a distintos miembros de la industria y a la comunidad de inteligencia artificial para "avanzar más rápido".

"La gente ha manipulado imágenes a lo largo de casi toda la historia de la fotografía. Pero ahora es posible que prácticamente cualquiera pueda crear y pasar falsificaciones para audiencias masivas. El objetivo de esta competencia es construir sistemas de IA que puedan detectar las pequeñas imperfecciones en un imagen manipulada y exponer su representación fraudulenta de la realidad", sostuvo Antonio Torralba, profesor del MIT, que participa de la iniciativa.

"Dados los recientes desarrollos que permiten producir información manipulada a escala (texto, imágenes, videos y audio), necesitamos la participación total de la comunidad de investigación en un entorno abierto para desarrollar métodos y sistemas que puedan ayudar a detectar y mitigar los efectos nocivos de la manipulación de la multimedia", coincidió Rama Chellappa, profesor de la Universidad de Maryland.

 

(Télam)