TikTok quiere ser más ‘legal’ con sus usuarios. La plataforma de vídeos cortos que arrasa en el mundo entero ha sido tachada en varias ocasiones de no ser muy transparente con sus algoritmos y sus técnicas para mostrar contenido o para eliminarlo.
Ahora, la compañía ha emitido un comunicado asegurando que va a añadir transparencia “a las eliminaciones de contenido”, haciendo este proceso más visible a los que utilizan la app.
“Las Normas de la Comunidad de TikTok son nuestra base para mantener una aplicación segura y acogedora para todos. Nuestras políticas están impulsadas por nuestra misión de inspirar la creatividad y aportar diversión a la gente de todo el mundo y nos ayudan a fomentar una comunidad inclusiva y auténtica, a la vez que definen el tipo de contenido y comportamiento que no está permitido en nuestra plataforma”, dice la compañía en una nota de prensa.
Informa de que, durante los últimos meses, han estado experimentando “con un nuevo sistema de notificación para dar a los creadores una mayor claridad en cuanto a la eliminación de contenidos”. “Nuestros objetivos son mejorar la transparencia y la educación en torno a nuestras Normas de la Comunidad para reducir los malentendidos sobre el contenido de nuestra plataforma”, añaden.
Aseguran que “los resultados han sido prometedores”. “Explicar cómo aplicamos la normativa y recordar nuestras políticas ha ayudado a reducir la tasa de repetición de violaciones, y las visitas a nuestras normas comunitarias casi se han triplicado”, subrayan.
Gracias a este trabajo, explican, han visto una reducción del 14% en las solicitudes de los usuarios para eliminar contenidos. “Creemos que esto ayuda a fomentar una mayor comprensión del tipo de contenido positivo y del comportamiento agradable que hace prosperar a nuestra comunidad”, concluyen.
En qué consisten las mejoras en las notificaciones
Ahora, cuando un vídeo es retirado por violar las políticas de TikTok, se le comunica al creador del vídeo cuál es la política concreta infringida y se le da la posibilidad de recurrir la decisión. Con ello, la compañía pretende garantizar que sus Normas de la Comunidad se apliquen de manera «uniforme y equitativa».
Se ha implementado también algo así como un servicio de apoyo para ayudar a los usuario a través de estas notificaciones. Por ejemplo, cuando el contenido se marque como autolesivo o relacionado con el suicidio, la app proporcionará acceso a recursos y expertos a través de una segunda notificación.
Tomado de https://www.20minutos.es