Twitter ha anunciado una nueva política frente al contenido multimedia sintético o manipulado que prohíbe compartirlo de manera engañosa con el objetivo de causar daño, y además podrá eliminar, etiquetar o advertir de aquellos tuits que contengan ese tipo de material.
La red social considera contenido sintético o manipulado el que ha sido «sustancialmente editado» de forma que altere «significativamente su composición, secuencia, tiempo o encuadre», que tenga información visual o sonora que haya sido añadida o eliminada o que haya sido fabricado o simulado para representar a una persona.
Twitter indica en un comunicado que no se podrá compartir «de manera engañosa contenidos sintéticos o manipulados con el objetivo de causar daño».
Además, podrá etiquetar este tipo de contenidos multimedia «para dar información a la gente sobre la autenticidad del contenido y proporcionarles un contexto adicional».
El etiquetado de tuits que incluyan este contenido multimedia manipulado comenzará el próximo 5 de mayo, indica la nota.
Para etiquetar o eliminar un mensaje se considerará si el contexto en el que se ha compartido el contenido multimedia pudiera «generar confusión o un malentendido» o si se trata de «un intento deliberado de engañar a la gente sobre la naturaleza o el origen del contenido, por ejemplo afirmando falsamente que refleja una realidad».
De igual forma se evaluará el contexto que se proporciona junto al contenido: el texto del tuit que lo acompaña, la información del perfil de quien lo comparte y las páginas web enlazadas a dicho perfil o al mensaje.
Los tuits que compartan contenido multimedia sintético o manipulado podrán ser eliminados «si pueden causar daños», indica la nota, que señala diversos supuestos.
Algunos de esos daños específicos son para Twitter: amenazas a la seguridad física de una persona o grupo y riesgo de violencia masiva o de disturbios civiles generalizados.
También se incluyen en esta categoría las amenazas a la privacidad o habilidad de una persona o grupo a expresarse libremente o participar en un evento, tales como: acecho o atención no deseada y obsesiva; contenido específico que incluye tropos, epítetos o material que tienen como objetivo silenciar a alguien; supresión o intimidación de votantes, señala el comunicado.
En el caso de que la red considere que un contenido multimedia ha sido «significativa y engañosamente alterado o creado», esta se compromete a proporcionar «un contexto adicional» en el tuit.
Dicho contexto supone que se podrá, entre otras opciones, etiquetar el mensaje o mostrar una advertencia a los usuarios antes de que lo retuiteen o le den un «me gusta».
Otras opciones son reducir la visibilidad del tuit en la red social y prevenir de que sea recomendado, además de proporcionar «explicaciones adicionales o aclaraciones disponibles, como redireccionar a otra página que añada más contexto».
Twitter anuncia esta nueva política tras abrir en noviembre pasado un periodo de consultas para conocer la opinión de los usuarios, durante el que recabó 6.500 sugerencias y opiniones de todo el mundo y consultó a expertos académicos para determinar el enfoque inicial.
Tras esa consulta, la red social estima que la gente, «en general, reconoce la amenaza que supone la alteración engañosa de los contenidos multimedia y quiere que Twitter haga algo al respecto».
Los datos señalan que, «globalmente», más del 70 % de las personas que usan internet considera que sería «inaceptable» no tomar medias contra esos contenidos manipulados.
Además, más del 90 % de las personas que compartieron sus comentarios apoyan que Twitter elimine ese contenido «cuando está claro que está destinado a causar cierto tipo de daño».
El contenido multimedia manipulado, como los llamados ultrafasos o «deepfake», se extiende cada vez más en internet. Un estudio de la firma de ciberseguridad danesa Deeptrace, publicado en octubre del año pasado, señaló que durante los siete primeros meses de 2019 había detectado 14.678, un número que casi duplicaba el del periodo precedente.