Los flujos migratorios de la desinformación cambian de rumbo. Si Twitter y, en especial, Facebook han sido la catapulta de mensajes de odio y falsedades durante mucho tiempo. Lo han sido por culpa de su benévolo tratamiento hacia los mensajes que los usuarios promueven. Pero WhatsApp ha empezado a tomar ahora el testigo de las «fake news».
Cada vez más, la aplicación de mensajería se utiliza para mover y propagar enlaces a noticias y contenidos informativos. El entorno, más privado y aparentemente controlado que las redes sociales, invitan a los usuarios a dejar plasmada sus manifestaciones al respecto. La era de lo políticamente correcto se ha impregnado en la sociedad. Y es el caldo de cultivo para que los ciudadanos opten por resguardarse en servicios digitales privados para dar su opinión al respecto.
Este escenario lo ha aprovechado WhatsApp. Una «app» que alberga en estos momentos más de 1.500 millones de usuarios. Según un estudio elaborado por Instituto Reuters de la Universidad de Oxford, el nivel de popularidad global de Facebook desde 2015 hasta hoy no ha cambiado, «pero su uso para las noticias ha disminuido». El informe pone de manifiesto que «los consumidores de todo el mundo están leyendo menos noticias en Facebook y recurriendo cada vez más a WhatsApp para compartir y debatir noticias».
Un caramelo en boca de los ciberdelincuentes, que pueden tener un nuevo vector de ataque para difundir enlaces diseñados para robar los datos personales de los usuarios, y para los grupos de «trolls» que se encargan de realizar pseudonoticias y contenidos informativos cuyo único objetivo es propagar la mentira y la desinformación, las «fake news» que son el quebradero de cabeza de Facebook.
«No es tan diferente a las conversaciones habituales, pero lo que lo hace diferente es la velocidad con la que estas se pueden propagar», apunta en declaraciones a «The Guardian»Nic Newman, coautor de la investigación. «Las razones por las que las personas se están mudando a estos espacios es porque obtienen más privacidad. Si estás en un sistema controlado puedes usarlo para hablar con seguridad sobre política, pero también puede usarse para objetivos nefastos».
Pese a todo, el estudio ha sido incapaz de extraer datos concretos sobre el impacto de las «fake news» en la aplicación, propiedad de Facebook, por cierto, con lo que todo queda en casa. Los investigadores se centran más en una percepción y la detección de los nuevos hábitos de los usuario. De hecho, la configuración de privacidad de WhatsApp dificulta la posibilidad de determinar la magnitud de la información falsa: «Es muy pronto, pero tengo la corazonada de que se convertirá en una problema mucho más grande».
La propia naturaleza de WhatsApp permite a los usuarios enviar mensajes, compartir enlaces, subir imágenes y videos a otros usuarios. A diferencia de Facebook, Twitter e Instagram, no cuenta con un algoritmo que decide qué contenido se debe mostrar, con lo que ello reduce las posibilidades de que compañías externas malintencionadas compren anuncios políticos. Todo el flujo conversacional se dirime en un ambiente de cierta privacidad, con lo que en teoría no debería tener impacto las noticias falsas, pero al final los usuarios las «cuelan» de igual manera.
El propio sistema de seguridad basado en un cifrado de extremo a extremo también dificulta las habilidades de la «app» para cerrar el grifo a este tipo de informaciones erróneas. Algo a lo que los países occidentales se resisten a aceptar, puesto que la relación entre los investigadores y las compañías tecnológicas es algo difuso. Reino Unido, por ejemplo, ha querido implantar un mecanismo para en cierta manera controlar este tipo de comportamientos de usuarios anónimos, pero en la práctica resulta casi imposible para WhatsApp. Las «fake news» se han empezado a compartir en su plataforma sin control, y su solución es difícil. Más que nada porque en el momento en el que una persona publica un enlace con contenido falso por regla general eso da pie a un reguero de opiniones que alimentan el rumor.