La red social favorita de los adolescentes quiere posicionarse como líder en seguridad y transparencia. A pesar de que cuenta con potentes algoritmos que eliminan automáticamente vídeos desagradables antes de que puedan ser vistos por los usuarios de la plataforma, muchos aún se les escapan. TikTok tiene un gran problema de seguridad que pretende solucionar a través de los servicios de Majorel, una de las principales empresas de «contact center» de Barcelona. Al igual que hizo Facebook, quiere mejorar la confianza de los usuarios subcontratando moderadores de contenido «abusivo, violento e inapropiado».
Un perfil no cualificado para un duro trabajo
Según la oferta de trabajo publicada por Majorel, el puesto no requiere de estudios universitarios pero sí un nivel alto de inglés, un segundo idioma y experiencia en el sector. Concretamente, la principal tarea «como moderador, trabajará examinando y monitoreando los sitios en busca de contenido abusivo, violento e inapropiado». La empresa avisa de que «mirar imágenes, vídeos, artículos, clips de audio puede parecer una tarea divertida y fácil, pero se insta a los solicitantes a tener en cuenta que el contenido, en algunos casos, contendrá imágenes fuertes y abominables y no se recomienda para personas que se ofenden fácilmente».
Según el periódico La Información, los sueldos de moderadores de esta compañía oscilan entre los 8.000 y 15.000 euros brutos anuales si se trabaja la jornada parcial. Para jornadas completas, el sueldo bruto anual van desde los 18.000 a los 21.000 euros. Se podría considerar un sueldo bajo para una ciudad como Barcelona. Además, es un trabajo muy duro si tenemos en cuenta el impacto psicológico y emocional que supone la revisión constante de contenido altamente desagradable como pornografía infantil, violencia física o suicidio.
La compañía más hermética quiere ser la más transparente
TikTok postea periódicamente informes de seguridad de manera pública, en su afán por ser la compañía más transparente. En estos informes detalla el volumen y el tipo de contenido que elimina por violar las normas de la comunidad, los términos del servicio o los derechos de autor, y cómo responde a las solicitudes de información de gobiernos y autoridades. Los últimos datos que nos ofrece estiman que 104 millones de vídeos han sido borrados de la plataforma. ¿Los motivos? contener información o imágenes que pueden herir la sensibilidad del espectador. Es por ello que, al principio, Facebook y TikTok contrataban directamente los servicios de los moderadores, pero debido a la afloración de contenido inapropiado, ahora lo subcontratan a través de empresas como Majorel.
A pesar de querer ser la más transparente, TikTok, que aún no dispone de sede en España, es una compañía muy recelosa de su intimidad. No nos proporciona apenas datos de su actividad en el país. No conocemos cuántos usuarios tiene, cuánto gana en España o cuántos empleados españoles están en plantilla. Sólo sabemos, gracias a que la agencia de noticias Bloomberg tuvo acceso a algunos de sus datos, que en España se han registrado 8,8 millones de cuentas, y que un tercio de estos usuarios son menores de edad.
La red social preferida de adolescentes
Teniendo en cuenta estos datos no es de extrañar que sea realmente importante para TikTok «promover la seguridad y el optimismo», especialmente entre los jóvenes. Por eso la aplicación cuenta con la función Family Pairing, a través de la cual padres y madres pueden conectar su cuenta de TikTok a la de sus hijos. De esa manera podrán elegir el tipo de contenido que pueden ver, así como promover hábitos saludables limitando el tiempo de uso de la aplicación y personalizar la configuración de los mensajes.
Además, TikTok, que incluye filtros de contenido, deshabilita automáticamente los mensajes privados para cuentas registradas a nombre de menores de 16 años, y no permite que ningún usuario les envíe imágenes privadas como medida preventiva contra contenido inapropiado.