Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Un perito forense avisa que TikTok “no es para niños”: “Si quieren corromperlos, es el sitio ideal”

Los peligros de TikTok

Carlos del Castillo

0

TikTok siguió un camino particular para expandirse. Su popularidad explotó durante la pandemia, llegando a ser la app más descargada del mundo en 2021. No ocurrió por accidente. Su matriz china, Bytedance, llevaba tiempo intentando exportar la app fuera de las fronteras del gigante asiático, donde ya era todo un éxito: allí se llama Douyin y en 2020 tenía más de 600 millones de usuarios. El problema es que no podía hacerlo exportando la misma plataforma, ya que Douyin está preparada para adecuarse a la vigilancia y censura que las autoridades chinas imponen sobre todos los servicios digitales.

Bytedance tenía la tecnología de una red social de éxito pero le faltaban los usuarios. Una plataforma vacía es muy aburrida, por muy avanzados que sean sus algoritmos. Para crecer, la compañía decidió en 2017 adquirir Musical.ly por 1.000 millones de dólares. Musical.ly era otra red china que había empezado a dar sus primeros pasos en el terreno internacional permitiendo a los usuarios crear videos de 15 a 20 segundos con pistas de audio de canciones de éxito. Se estaba haciendo muy popular entre los menores, que la usaban para crear sus propios videoclips.

En agosto de 2018 Bytedance fusionó TikTok, que entonces contaba con unos 55 millones de usuarios en todo el mundo, con Musical.ly, que tenía unos 200. Fue la rampa de lanzamiento para la plataforma china, que aprovechó esa base de miembros para despegar con la llegada del coronavirus. Ese es el motivo por el que TikTok en sus inicios fue vista como plataforma para niños y bailes a pesar de que Douyin no es una red orientada a menores y la dirección de Bytedance tampoco pretendía que TikTok lo fuera.

Hoy en día TikTok tiene más de 1.650 millones de usuarios fuera de China y es una plataforma donde abundan los contenidos que no son aptos para los niños, como reconoce la propia empresa. “¿Quieres saber que adaptación hizo TikTok para pasar de ser una plataforma infantil tras la compra de Musical.ly a ser una red de videos para adultos? Ninguna que sepamos”, afirma el español Pablo Duchement, profesor de Educación Secundaria, ingeniero informático y perito forense especializado en casos de abuso infantil.

Duchement lleva años avisando de que “TikTok no es para niños”. Se basa en su experiencia forense, centrada en el grooming (cuando un adulto contacta con un menor haciéndole creer que tiene su misma edad a través de redes sociales) y el ciberbullyng. “De todo lo que me llega, el 75% tiene que ver con TikTok”, indica en conversación con elDiario.es, exponiendo que el motivo es esa táctica que la red usó para expandirse: “No hicieron ningún filtrado antes de convertirse en una plataforma para adultos. Simplemente cambiaron las condiciones de la noche a la mañana”.

“¿Qué pasó con las cuentas de todos esos niños que estaban en esa plataforma? Pues que ahora se les está entregando contenido de Mia Khalifa, de actrices porno, influencers peligrosos, grupos radicales, y más barbaridades sin que ocurra nada”, denuncia.

Además de los contenidos, el perito señala que TikTok apenas pone barreras al registro de menores de 13 años en la plataforma, algo que la ley no permite, ni se esfuerza en comprobar cuántos tienen más de 13 pero son menores de edad. “Solo les pregunta cuántos años tienen, algo en lo que los niños obviamente mienten para no tener restricciones en el uso de la aplicación”, revela Duchement.

Entre los avisos que Duchement hace sobre la plataforma china se encuentra la facilidad con la que los adultos pueden contactar con menores a través de ella, el llamado grooming. “Para quienes quieren corromperlos, TikTok es el sitio ideal. De las redes sociales en las que hay menores, es en donde esta todo más oscuro y por lo tanto los depredadores se mueven con mayor impunidad. También tiene antecedentes de no colaborar con la justicia en la persecución de este tipo de criminales. Ni siquiera mediando orden judicial”, afirma.

TikTok asegura hacer “todo lo que puede”

La responsable de política de producto de TikTok en Europa, Oriente Medio y África, Emer Cassidy, visitó España esta semana. elDiario.es estuvo presente en una reunión con periodistas en las que la directiva de la app explicó las medidas de seguridad que esta aplica para evitar situaciones como las que denuncia Duchement. “Hacemos todo lo que está en nuestra mano para impedir que haya usuarios de menos de 13 años en la plataforma y que los menores de 18 años vean contenido que no es apropiado para ellos”, aseguró.

La directiva explicó que TikTok tiene dos formas de averiguar si un niño menor de 13 años está intentando usar la app. La primera es preguntarle durante el registro y la segunda son “moderadores especializados”. “Debes tener 13 años o más para unirte a TikTok. Para asegurarnos de asegurar esto, cuando intentas crear una cuenta, tenemos una medida estándar de la industria. Preguntamos la edad, pero no con un aviso que diga que debes tener 13 años si con un formulario directo. Si tienes menos de 13, recibes un mensaje que dice: 'Lo siento, no puedes unirte'. Y si intentas volver a crear una cuenta y utilizar una fecha de nacimiento diferente, la app te lo impedirá”, detalló la ejecutiva.

Para evitar que los menores de 13 años estén en la plataforma, tenemos moderadores entrenados para identificar cuentas de menores de edad. Por ejemplo, si en la biografía dice "tengo 11 años", eliminamos esa cuenta

Emer Cassidy jefa de política de producto de TikTok en Europa, Oriente Medio y África

“Aunque la gran mayoría de la gente en TikTok entiende la importancia de proporcionar la edad correcta, hay algunas personas que no lo hacen. Eso es un reto para toda la industria. Así que para evitar que los menores de 13 años estén en la plataforma, tenemos moderadores que están especialmente entrenados para identificar cuentas de menores de edad. Por ejemplo, si en la biografía dice ”tengo 11 años“, eliminamos esa cuenta”, añadió

Cassidy expuso en este sentido que TikTok fue la primera red social en publicar el número de cuentas que elimina al año por sospechar que corresponden a menores de edad. Los datos muestran que la compañía apenas lo hizo antes de 2021, cuando la ley ya imponía un mínimo de edad de 13 años para tener una cuenta.


elDiario.es preguntó a Cassidy por el equipo de moderación de TikTok y sus características. En concreto, por el tamaño del equipo y localización de los trabajadores, puesto que el contexto cultural resulta clave en esta tarea. La directiva no lo concretó. “Contamos con más de 40.000 profesionales de la seguridad, que se dedican a mantener la seguridad de TikTok y brindan moderación de contenido las 24 horas del día, los 7 días de la semana en más de 70 idiomas en todo el mundo”, manifestó.

TikTok naranja y PornHub

TikTok bloquea los contenidos pornográficos y eróticos para todos los usuarios. Para los menores de 13 años las restricciones van más lejos. “Hay niveles de contenido”, reveló Cassidy: “Hay algunos tipos de contenido de TikTok que, aunque está perfectamente bien en la plataforma, pueden no ser apropiados para algunos de nuestros usuarios más jóvenes. Pueden ser contenidos de ficción, que sean aterradores o muy intensos. Cuando identificamos ese contenido, aplicamos una restricción e impedimos que sea visto por menores de 18 años”.

La plataforma utiliza una mezcla de inteligencia artificial y moderación humana para conseguir este propósito. Sin embargo, elDiario.es pudo comprobar que hay menores de edad saltándose las restricciones sin demasiados problemas. Utilizan códigos muy simples para impedir ser detectados: es suficiente con escribir “nopor” en vez de “porno”, “TikTok naranja” para referirse a la página para adultos PornHub o “TikTok azul” para Xnxx, otra página porno (en estas dos últimas también se utilizan variantes como “YouTube naranja” y “YouTube azul”).

“No estoy familiarizada con el uso de términos como 'TikTok naranja', pero puedo decirte que prohibimos el material sexualmente explícito en la plataforma. Es algo que jamás permitiríamos en TikTok. También tenemos políticas en torno al contenido sexualmente sugerente, que no puede ser visto por personas entre 13 y 17 años. Así que tenemos varias capas de protección”, contestó Cassidy al ser preguntada por este medio.

A las cuentas que TikTok sabe que están manejadas por adolescentes de 13 a 18 años les aplica otras restricciones, como que sus contenidos no puedan ser vistos por cuentas de adultos y que estos no puedan enviarles mensajes. Sin embargo, para que se ejecuten estos límites la red tiene que haber sido capaz de detectar que el usuario es menor de edad con inteligencia artificial o ese equipo de moderación especializado del que no concreta sus características.

Por último, elDiario.es preguntó a TikTok sobre su colaboración con el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos (NCMEC) en las investigaciones de abusos de menores como hacen el resto de redes. Este organismo privado ejerce como pivote de las investigaciones de abuso de menores, al transferir a las policías de todo el mundo las alertas que le envían las plataformas. En este caso la red social se remitió a sus informes de transparencia sobre las peticiones de retirada de contenidos por este motivo que atiende (sus datos muestran que desde España solo le llegó una en 2022, que aceptó).

“Tenemos cero tolerancia con respecto al material de abuso sexual infantil y este comportamiento aberrante que está estrictamente prohibido en nuestra plataforma. Cuando nos damos cuenta de cualquier contenido, lo eliminamos de inmediato, bloqueamos las cuentas y hacemos informes al NCMEC”, contestó su portavoz.

Etiquetas
stats