Política

En Nueva Zelanda, el papel de la tecnología en la propagación del extremismo está bajo escrutinio.

La difusión de un video en Internet que aparentemente fue grabado por un tirador que mató a 50 personas en dos mezquitas de Christchurch, Nueva Zelanda, ha reavivado el debate sobre cómo las empresas de tecnología moderan sus plataformas – y si han hecho lo suficiente para acabar con la propagación de los supremacistas blancos en línea.

Los críticos de las compañías, encabezados por políticos del Reino Unido, dicen que Facebook y YouTube no han hecho lo suficiente para dirigirse a los grupos de la supremacía blanca en sus plataformas, señalando un esfuerzo exitoso para controlar el contenido extremista islámico en los sitios como prueba de que el problema está bien dentro del poder de las compañías.

Esas llamadas han sido contrarrestadas por las advertencias de algunos miembros de la industria de la tecnología que afirman que presionar a las empresas de tecnología para que regulen más el extremismo no solucionará los problemas más profundos de la radicalización en línea.

Copias digitales del video, que fue capturado de un stream en vivo de Facebook, fueron subidas repetidamente a Facebook, Twitter y YouTube en las horas posteriores al ataque, aunque la mayoría de las versiones fueron removidas el viernes por la tarde en los EE.UU. El manifiesto del tirador se refería a una variedad de influencias basadas en Internet, dejando tras de sí un patrón familiar para los investigadores que estudian la radicalización en línea.

La Primera Ministra de Nueva Zelanda, Jacinda Ardern, dijo el martes que examinará el papel que desempeñaron las empresas de medios sociales en el ataque.

«No podemos simplemente sentarnos y aceptar que estas plataformas simplemente existen y que lo que se dice no es responsabilidad del lugar donde se publican», dijo durante un discurso ante el Parlamento de Nueva Zelanda. «Ellos son el editor, no sólo el cartero. No puede haber un caso de todo beneficio, ninguna responsabilidad.»

Más tarde, el martes, el presidente del Comité de Seguridad Nacional de la Cámara de Representantes de Estados Unidos, Bennie Thompson, demócrata, pidió a los líderes de las principales compañías tecnológicas que participaran en una sesión informativa para discutir la difusión del video.

«Sus compañías deben priorizar la respuesta a estas ideologías tóxicas y violentas con recursos y atención», escribió Thompson en una carta. «Si no está dispuesto a hacerlo, el Congreso debe considerar políticas para asegurar que el contenido terrorista no se distribuya en sus plataformas, incluyendo el estudio de los ejemplos de otros países».

Facebook anunció el sábado que la empresa había bloqueado 1,2 millones de subidas del vídeo, mientras que eliminó otros 300.000 vídeos. El número de vídeos pone de relieve la magnitud del reto al que se enfrentan Facebook y otras plataformas de Internet después de haber pasado años promocionándose como destinos para una amplia gama de vídeos, a la vez que adoptan un enfoque de moderación ligeramente táctil.

Sala de prensa en Facebook

@fbnewsroom

  • 17 de marzo de 2019
    Responder a @fbnewsroom
    Actualización de Mia Garlick, Facebook Nueva Zelanda: «Seguimos trabajando día y noche para eliminar el contenido que infringe la ley mediante una combinación de tecnología y personas….

Sala de prensa en Facebook

@fbnewsroom
En las primeras 24 horas eliminamos 1,5 millones de vídeos del ataque en todo el mundo, de los cuales más de 1,2 millones fueron bloqueados en la carga….

1,467
4:14 AM – Mar 17, 2019
Anuncios de Twitter información y privacidad
1.125 personas hablan de esto
YouTube también trabajó para eliminar las numerosas cargas que recibió su plataforma, y la empresa tomó una serie de medidas para bloquear el vídeo. Rechazó automáticamente cualquier material que incluyera actos de violencia de los tiroteos, dijo la compañía en una declaración enviada por correo electrónico.

«Desde la horrible tragedia del viernes, hemos eliminado decenas de miles de vídeos y hemos eliminado cientos de cuentas creadas para promocionar o glorificar al tirador», dijo la compañía en el comunicado. «El volumen de videos relacionados subidos a YouTube en las 24 horas posteriores al ataque fue sin precedentes tanto en escala como en velocidad, a veces tan rápido como una nueva subida cada segundo.»

YouTube también suspendió algunas funciones de búsqueda, como la posibilidad de ordenar los vídeos por los que se han subido más recientemente.

El debate sobre los medios de comunicación social, que comenzó con la pregunta de si las plataformas habían tomado las medidas adecuadas para detener la difusión del vídeo, se centró el fin de semana en la cuestión de si las empresas estaban haciendo lo suficiente para hacer frente al aumento del contenido extremista dirigido a los musulmanes, judíos y otros grupos étnicos.

¿Deberían los gigantes de las redes sociales controlar el contenido de sus plataformas?
18 DE MARZO DE 201907:00
Gran parte de las críticas provienen de los políticos del Reino Unido, que han tomado la iniciativa de pedir que se regule la regulación de las empresas tecnológicas.

Tom Watson, miembro del Parlamento Británico y vice-líder del Partido Laborista, escribió en un blog que los tiroteos «cristalizaron el caso de la regulación de los medios sociales».

«Está claro que las plataformas de medios sociales, al ayudar e instigar la publicidad del crimen, se han convertido en parte de la armería de los terroristas», escribió Watson.

Sajid Javid, ministro del Interior británico, dijo en un tweet que YouTube, Google, Facebook y Twitter necesitan «apropiarse» del extremismo promovido en sus plataformas.

«Ya es suficiente», escribió Javid.

Algunos señalaron el esfuerzo realizado para detener la propagación de los extremistas islámicos, entre ellos ISIS, que utilizaba el sistema de interne