parentesis.com/

¿Por qué Facebook no detectó el video del ataque en Nueva Zelanda?


La red social explica por qué sus sistemas de inteligencia artificial no eliminaron automáticamente el video del ataque contra dos mezquitas.

por: Redacción Paréntesis Redacción Paréntesis

portada de nota

 

La inteligencia artificial de Facebook no eliminó automáticamente el video del ataque contra dos mezquitas en Nueva Zelanda porque el clip no activó sus sistemas de detección automática, es decir, no sabía qué estaba pasando, de acuerdo con la red social.

 

“Para lograrlo, tendremos que proporcionar grandes volúmenes de datos de este tipo de contenido a nuestros sistemas, algo que es difícil, ya que estos eventos son afortunadamente raros”, indicó Facebook por medio de un comunicado. 

 

Facebook también destacó que durante la transmisión del ataque, no se registró un sólo reporte contra el video misma, lo que evitó que la plataforma acelerara los proceso de revisión que siguen las transmisiones en vivo. 

 

“El primer reporte se registró 29 minutos después de que inició la transmisión", añade el comunicado. Lo que quiere decir que los primeros reportes sobre el contenido del video llegaron 12 minutos después de que el ataque concluyera.

 

El video obtuvo menos de 200 vistas en vivo y fue reproducido alrededor de 4 mil veces antes de que fuera retirado por Facebook. 

 

Ahora, Facebook y demás redes sociales batallan para evitar que versiones modificadas del video proliferen en sus sistemas, para lo que emplearán tecnología de coincidencia de audio para detectar videos "distintos", pero con el mismo sonido. 

 

Facebook se comprometió a combatir los discursos de odio en todas sus manifestaciones y expandirá su colaboración en la industria a través del Global Internet Forum to Counter Terrorism (GIFCT).  

 

Nota relacionada: Diariamente Facebook elimina millones de videos sobre el ataque de Nueva Zelanda

Comenta:

separador de nota