Las grandes compañías tecnológicas han sido duramente criticadas por su inmovilismo en la lucha contra el extremismo online
Google apuesta por mejorar sus mecanismos automáticos de detección de contenido y por mejorar la supervisión humana
Facebook, Microsoft, YouTube y Twitter se alían para frenar el contenido terrorista online
Google es una de las muchas compañías puramente digitales que están sintiendo la presión de sus usuarios, pero también de muchos organismos públicos, para evitar que el contenido extremista se extienda con tanta facilidad como lo hace ahora mismo entre sus servicios.
Kent Walker, vicepresidente y consejero general de Google, ha transmitido la intención de la compañía de mejorar en este aspecto y por eso ha publicado en su blog oficial la tribuna que llevaba hoy en impreso el periódico Financial Times y en la que comentaba los cuatro pasos que la compañía ha decidido tomar para paliar la proliferación y viralización de contenido extremo.
Con contenido extremista, Google entiende todo lo que pueda generar violencia online y en el mundo real, sean incitaciones a actos terroristas, a agresiones a grupos culturales u opiniones políticas que promuevan una u otra cosa.
Para acabar con esto, dice Walker, Google ha trabajado con varias agencias gubernamentales para saber cómo reconocer y eliminar mejor este contenido. Esto les exigía mejorar la tecnología de sus sistemas para, por ejemplo, saber identificar mejor los vídeos de YouTube relacionados con el terrorismo, de modo que puedan eliminarlos rápidamente y denunciar a sus responsables a las autoridades.
A este primer paso, que sería un proceso automático, hay que sumar otro en el que el factor humano es fundamental. El sistema de denuncia con usuarios de confianza que se ha implementado en el buscador de Google debería ayudar también a reducir el alcance de ciertas publicaciones. La compañía duplicará la cantidad de usuarios con capacidad para denunciar contenido, entre los cuales ahora habrá expertos de 63 ONGs de todo el mundo.
En tercer lugar, Google también quiere ser más precisa tratando contenido al identificar vídeos que, pese a hablar de terrorismo, no violan las condiciones de uso de sus servicios. Los vídeos con contenido «supremacista o de exaltación religiosa» no se eliminarán, por ejemplo, aunque sí estarán ocultos tras un aviso, además de que no podrán generar ingresos por publicidad. Esto último es una medida que ya aplica Google, aunque con efectividad limitada, pues muchos vídeos con temática LGTB+ fueron vetados bajo estas directrices.
Por último, la compañía busca contrarrestar con formación y educación para aquellos que buscan contenido sobre terrorismo o supremacismo. Un ejemplo que pone Walker es que Google podría mostrar anuncios sobre vídeos antiterroristas a aquellos que buscan cómo alistarse en el ISIS.
En el pasado, Google ha colaborado con Facebook o Microsoft para paliar el efecto de este contenido y para apoyar a organizaciones contra el terrorismo, aunque los efectos de sus acciones todavía está por notarse.