Avatar

Stiven Cartagena

25 marzo, 2019

Facebook mejorará el control de los ‘Facebook Live’ para evitar contenidos violentos

Tras el escándalo que ha provocado en Facebook la transmisión en directo del atentado de Nueva zelanda y las incontables veces en las que se ha vuelto a subir el vídeo por parte de otros usuarios, la compañía de Mark Zuckerberg decidió crear una nueva política en la emisión de vídeos en Facebook Live.

El principal cambio que incorporará la red social será el de darle mayor prioridad a los mensajes de aviso que lleguen sobre aquellos vídeos en directo, algo que ya lleva su tiempo tratando de incorporarse en casos de suicidio. Desde 2017 existen problemas con actos violentos que son emitidos en la red social, cuyo contenido a veces llega a tener cientos de visualizaciones sin que la compañía sea avisada para su respectivo bloqueo.

Facebook aseguró que tras el atentado de Christchurch la emisión se analizó unos diez minutos después de lo sucedido. Luego de la gran difusión que tuvo este atentado, la compañía cambiará los mecanismos para revisar de una manera más rápida los vídeos que puedan llegar a ser peligrosos.

Más personas para inspeccionar el contenido

El mayor problema que enfrenta Facebook es la cantidad de videos que se emiten a diario y cómo descubrir aquellos que incluyen violencia en vivo. Estas últimas pueden incluir sonidos e imágenes que complican el trabajo de los algoritmos que se encargan de detectar el contenido violento.

Para controlar esto, se buscará ampliar el personal humano que inspeccione esta área, y no que sólo sea un simple algoritmo. Zuckerberg lleva años afirmando que una Inteligencia Artificial podría hacer esta labor, pero hasta ahora no parece que eso resulte viable.

Así se evitaría el contenido violento

Con la emisión del atentado en Nueva Zelanda hubo casi dos millones de intentos de compartir el vídeo de nuevo, entre ellos varios canales de noticias. Resultó muy complejo separar los que informaban de los que hacían apología a los actos de violencia, aunque Facebook confirmó que solo una quinta parte de los intentos tuvieron éxito.

Por otra parte, YouTube recurrió a medidas más drásticas y prohibió en algunas zonas la subida del vídeo o el uso de ‘palabras claves’ que delatan esa intención.

El uso de las redes sociales por parte de terroristas y la viralidad de sus vídeos no es una novedad, y ya ha provocado el cierre de otras redes sociales como Gab. Es complejo conseguir hacer un seguimiento a este contenido, aunque seguramente tras los últimos casos de atentados se van grandes cambios y mayores limitaciones a la hora de subir este tipo de contenidos.

Relacionados