TikTok se está convirtiendo en la red social favorita para los adolescentes. Este uso generalizado de la red social está generando alertas sobre los peligros a los que están expuestos los adolescentes y niños y niñas en ella. La última alarma saltaba por la popularidad que están adquiriendo los hashtags #youtubenaranja y #youtubeazul entre los menores de edad. Estos hashtags, a los que pueden acceder nuestros hijos a pesar de tener el modo de “sincronización familiar”, es decir, el control parental que ofrece TikTok, hacen referencia a las plataformas pornográficas Pornhub y XXNX vídeos.
Si se realiza una navegación por los hashtags, no encontraremos un contenido explícito pornográfico, aunque sí que los vídeos que se pueden ver sirven como medio de acceso a las plataformas pornográficas y los protagonizan, en su mayoría, chicas hipersexualizadas.
Mientras que en hashtags como #porno o #sexo el contenido que se sube está controlado y filtrado, ya que estos hashtags están incluidos como palabras que pueden incumplir las normas de la comunidad, en #youtubenaranja y #youtubeazul hay más libertad para subir subir contenido sin que se les acabe retirando. Para Pablo Duchement, profesor, perito judicial experto en delitos en redes sociales perpetrados por y contra menores, estos hashtags se han creado para poder burlar los algoritmos que usa TikTok para controlar el contenido que no cumple sus condiciones. “Este tipo de artimañas o códigos los crean para poder saltarse los softwares de contenido de reconocimiento de palabras al no poder usar palabras que están en la lista negra”, cuenta.
A pesar de que estos hashtags son un acceso fácil al porno, María Lázaro, especialista en social media, desarrollo de negocios y educación digital, señala que TikTok no tendría por qué retirar o bannear el hashtag como pasa con #sexo, porque “no indica nada de que tenga o que incida a la pornografía”. “El hashtag como tal, siempre y cuando no contenga un tipo de contenido no apto en sus condiciones de uso, no habría un motivo para eliminarlo”, añade.
El problema de la pornografía en Tik Tok
No solo es una cuestión de que nuestros hijos e hijas usen unos hashtags en TikTok que les permiten acceder a páginas porno, sino que es una cuestión que abarca una mayor complejidad: por qué los niños tienen la necesidad de acudir al porno a tan temprana edad o por qué para informarse sobre sexualidad acuden a la pornografía. Según datos de la Fundación de Ayuda contra la Drogadicción (FAD), los niños comienzan a ver pornografía entre los 8 y 12 años, y en adolescentes de edades entre los 13 y 17 años, el consumo es constante. Por parte de los padres y madres, 9 de cada 10 desconocen que sus hijos tienen acceso a este tipo de contenido. El informe (Des)información sexual: pornografía y adolescencia de Save The Children señala que un 63% de los niños y niñas ha consumido porno entre los 6 y los 12, edades en las que no tienen ni desarrollado su pensamiento crítico, ni saben distinguir lo que es real y lo que es ficción.
Además de estar pendientes de si nuestros hijos e hijas acceden a estos hashtags, Lázaro señala que lo importante es educarles en que la pornografía no es la respuesta a sus dudas, y que somos los padres y madres quienes debemos abordar estas cuestiones. “Lo que es importante es que sepa que el consumo de pornografía no es adecuado, por qué no es adecuado que comparta y difunda pornografía”, cuenta.
¿Debería tomar medidas TikTok sobre sus contenidos?
Más allá de la alerta creada a partir de estos hashtags, se crea un debate sobre si TikTok es una buena red para menores de edad ya que, aún con control parental, los menores pueden acceder a estos hashtags con toda facilidad. Duchement advierte de lo peligrosa que es esta red para los adolescentes y niños. “Aunque la gente vea que es una red social divertida para niños, TikTok es para adultos, lo pone bien claro en su política de privacidad, hasta que alcanzas los 18 años no tienes acceso en teoría a todo el contenido de la red”.
Según el último informe de trasparencia de TikTok, la empresa de octubre a diciembre del 2021 eliminó más 85 millones de vídeos. Estos datos apuntan a que hay un ejercicio por parte de TikTok de querer eliminar el contenido que no cumpla sus condiciones. Aun así, ciertos vídeos que no cumplen las normas de la comunidad pueden llegar a burlar los algoritmos, por ejemplo, usando hashtags que no se encuentran dentro de la lista negra. Para Duchement la realidad no es tan clara y cree que TikTok podría eliminar perfectamente vídeos que saltan las normas de la comunidad si les interesase. “Si tú filtras la palabra sexo porque crees que los menores no deberían entrar a un contenido que incluya la palabra sexo, los usuarios usan la palabra “s3x0” y tú no la pones en el filtro, en realidad el mensaje que estas transmitiendo es “hemos hecho lo que hemos podido”. Pero no es cierto, bannea esa palabra también. Los moderadores de TikTok están ahí para eso”, cuenta.
Verificación de la edad en TikTok
El perito judicial cree que TikTok no gestiona bien el acceso a menores a la red social y permite estar a niños de menos de 13 años (edad mínima para estar en TikTok). El proceso para verificar la edad a la hora de abrirse una cuenta consiste en realizar una pregunta sobre la edad al usuario, al igual que hacen muchas redes sociales, pudiendo así muchos menores de 13 años mentir. Duchement pide que la red social ponga unos mecanismos de verificación que no sean solo una pregunta. “No estoy diciendo que tengamos que llegar hasta el extremo de mostrar ante la cámara el DNI, sobre todo por la gestión de datos personales del menor, pero es verdad que hay mecanismos más útiles que solo preguntarle al usuario su edad”, apunta.
Lázaro contrasta con una visión más optimista sobre esta red. “A mí si me consta que TikTok establece determinadas medidas. Lo que tiene en cuenta es que si detecta que la persona en esas imágenes no tiene esa edad (más de 13 años), bloquea la cuenta. En su último informe de transparencia cuenta que ha eliminado 15 millones de cuentas de presuntos menores de 13 años”. También advierte como Duchement que establecer otros sistemas de verificación de edad podría exponer aún más los datos de menores. “Podíamos plantearnos si TikTok tendría que pedir un sistema de verificación de rostro y que envies un DNI, en qué medida eso implicaría además un acceso mayor a los datos personales”, señala Lázaro.
¿Son los 13 años una edad buena para hacerse TikTok?
Cada red social expone en sus condiciones de uso la edad mínima para abrirse una cuenta en una red social. Esta suele oscilar entre los 14 y los 16 años, ya que así lo establece el reglamento general de protección de datos, que adopta esta medida por el tratamiento de datos de menores. Sin embargo, TikTok permite que los menores de 13 años ya se puedan abrir una cuenta en la red social. Para Duchement esto ya es una contradicción y una evidencia de que a TikTok le interesa “tener a niños usando su red”, pues es beneficioso “porque proporcionan unos datos que no les dan los adultos”. “La ley orgánica de protección de datos establece que un menor hasta que no cumple los 14 años no puede ser gestor de sus propios datos personales. ¿Cómo le damos acceso a un arma de difusión masiva de datos a un menor de 14 años? Si se supone que legalmente no puede”, añade.
Para Lázaro la edad de la red social no debería ser un parámetro a tener muy en cuenta a la hora de abrirse una cuenta en una red social, aunque sí que lo es para el tratamiento de datos. Para ella, cada familia debe ver si sus hijos e hijas tienen la madurez y las herramientas necesarias para estar en las redes sociales. “Es muy difícil parametrizar que todos los niños de 13 años o que todos los niños de 14 años tienen la misma madurez, la misma capacidad, el mismo conocimiento sobre las tecnologías y la misma conciencia sobre qué pueden y no pueden hacer en redes sociales y qué tipo de contenido es adecuado o no”, cuenta Lázaro.
El rol de las familias en la educación digital
Ambos expertos señalan la importancia de que estas plataformas hagan “cumplir las normas y las condiciones de servicio”, así como “restringir, limitar y ponerle coto a los contenidos que no cumplan las condiciones”, pero también trasladan la responsabilidad a las familias. “Debemos exigir a las plataformas que establezcan mecanismo de control, pero no podemos pensar que eso es lo único”, señala Lázaro.
Por eso, la experta pide que las familias eduquemos digitalmente a nuestros hijos, y estemos ahí para cuando nos pidan tener redes sociales. Duchement también coincide con ella en este aspecto y pide que las familias estén más concienciadas y les den herramientas a los hijos e hijas. “Se percibe el daño que un niño beba alcohol, fume un cigarro, todo cierto, pero todavía no se percibe mucho el daño de que un niño esté difundiendo sus datos personales”.
Lázaro señala que lo primero que debemos hacer para acompañar a nuestros hijos e hijas en sus redes sociales es hablar sobre ellas, darles una educación digital desde pequeños. Asimismo, anima que los padres y madres se descarguen la red social donde va a estar su hijo para que vean a qué contenido van a estar expuestos.
Si quieres saber más acerca de cómo educar a tus hijos, únete a nuestra comunidad de padres y madres visitando nuestros Cursos para ayudarte en tu labor educativa