“TikTok es adictivo”: el duro informe que revela el impacto de la red social en la salud mental y la privacidad de los argentinos
Su crecimiento es histórico. También su impacto y los riesgos que genera. TikTok es la red sociodigital de mayor crecimiento desde el año 2020, que “explotó” en la pandemia y tiene más de 1.000 millones de usuarios globales, muchos de ellos niños de entre 13 y 17 años. O menos.
Un reciente informe de Amnistía Internacional revela y advierte sobre el impacto que la empresa china tiene en la salud mental y la privacidad de los argentinos. A comienzos de este año había en el país unos 16,2 millones de usuarios mayores de 18 años.
El nombre de la investigación es “Domar el algoritmo” y fue realizada por un equipo que encabezaron Martín Becerra y Victoria Irisarri sobre el uso de la plataforma en adolescentes y jóvenes de 13 a 35 años en cinco ciudades argentinas.
“Detrás de la infinita cantidad de vídeos y contenidos creativos se esconde un modelo de negocio altamente extractivo, que absorbe información de cada usuario, incluso sin permiso, poniendo en riesgo la privacidad de las personas. Además, la red puede ser un espacio tóxico y adictivo para niños, niñas y jóvenes que puede influir en su autoimagen, su salud mental y su bienestar, y donde corren el peligro de caer en espirales de contenidos desencadenantes de depresión y autolesiones”, describe el trabajo que incluye también numerosas recomendaciones para el Estado argentino y para la propia empresa china.
“Desde la perspectiva de los propios usuarios, TikTok es adictivo. Hay una angustia importante, generalizada, acerca de perder el tiempo usando la aplicación, que es un poco perder el control sobre uno mismo. Y esa es una preocupación literal que sale de los testimonios de los usuarios. No construye comunidad, como otras redes, sino que te aísla brindándote contenidos en base a tu propia huella digital, aunque no los hayas autorizado a hacerlo”, aseguró Becerra.
“TikTok ocupa un lugar o cubre un espacio en base también a la defección de espacios institucionales. El autodiagnóstico de trastorno de salud mental o autoajustarse los brackets, salud física y mental, tiene que ver con esta invasiva personalización de contenidos en base a lo que la persona busco antes, pero también con lo que pasa con los espacios institucionales, profesionales, del saber autorizado, científico y profesional y de cuidado de la salud. Hay chicos que se autodiagnostican una enfermedad y dicen que no lo chequean con un médico porque le dan turnos dentro de ocho meses”, agregó el experto en comunicación, investigador del Conicet y profesor universitario.
“Los adolescentes y jóvenes que entrevistamos sí tienen conciencia sobre la sobreexposición y de sus riesgos. Vemos autocensura e inhibición a subir material propio por miedo a ser violentados por haters. Hay conciencia del contenido violento que hay en las plataformas, algo que es responsabilidad de las plataformas y de los estados tratar de disminuirlo o moderarlo, cosa que no hacen porque el modelo de la plataformas alienta la exacerbación y radicalización emocional y afectiva. Cuánto más extremos sean los contenidos, se pasa más tiempo y se genera una capitalización publicitaria mayor. Por razones legales no trabajamos con menores de 13 años, pero es masivo el uso de TikTok en menores de 13 años. Basta ir a una escuela primaria para advertirlo”, dijo Becerra.
Salud y seguridad
Uno de los puntos centrales del trabajo de Becerra y equipo, al momento de abordar los problemas de salud mental asociados a la plataforma, tiene que ver con que el uso de TikTok reconfigura la relación con el tiempo. “El carácter absorbente de esta red conduce a testimonios de ‘pérdida’ del tiempo, de descontrol, e incluso de ‘abducción’ por parte de la plataforma”, se detalló. Y planteó el ejemplo de Aylén, quien con 14 años dijo que “cuando usa TikTok suele entrar en un ‘bucle’, una sucesión de vídeos continua que, comparado con otras redes sociales como Instagram, solo genera esta app. Malena en la ciudad de Rosario, 22 años, también considera que TikTok es más adictiva que otras aplicaciones porque su formato en video es ‘más llamativo’ que otros”.
Además, se remarca que “el autodiagnóstico emerge como una práctica frecuente que abarca desde dietas, cuidados de la piel, aprendizaje de técnicas de maquillaje y también de trastornos o enfermedades mentales. Por un lado, el ideal de belleza es comentado como un contenido muy visto, pero a la vez es sindicado como problemático porque induce conductas alimenticias dañinas para la salud”. Y se marca como se tramitan los problemas de salud de las franjas más jóvenes de la población en forma de autodiagnósticos y consumos de contenidos relacionados con la salud mental carentes de curaduría profesional o científica.
Además de la violencia que muestran los videos, otro de los hallazgos del trabajo de campo fue la distinción que hacen casi todos los usuarios de TikTok entre el llamado “lado malo”, “lado feo” o “lado peligroso” como antítesis de lo que denominan “lado bueno”. “En ocasiones los contenidos del ‘lado malo’ son aludidos como ‘tóxicos’. A no caer en el ‘lado malo’ dedican tiempo y esfuerzos. Saber salir del ‘lado malo’ o encontrar las estrategias y tácticas que permitan hacerlo es visto como una obligación, más que una opción, si, como fue expresado por todos los interlocutores, se quiere mantener una relación buena o saludable en ese ámbito. Para hacerlo hay que domesticar al algoritmo, esto implica entrenarlo a través de los ‘me gusta’ y también de la elección ‘no me interesa’ o ‘seguir scrolleando porque si no le das bola, después de un tiempo no te aparecen más’”, asegura el paper.
“TikTok debería llevar a cabo una debida diligencia adecuada en materia de derechos humanos para identificar, prevenir, mitigar y rendir cuentas de cómo está abordando los posibles y reales daños que pueda causar”, destacó el documento.
A la hora de los testimonios, la investigación es contundente. Por ejemplo, el caso de Matías, de Rosario, quien se presentó como una persona con TID (Trastorno de la identidad disociativo). “Cuando alude a contenidos sensibles para la salud mental habla de ‘cosas depresivas’ y menciona los videos sobre ‘ponerse fecha’ (para suicidarse). Matías dice que sube estos videos porque lo ‘representan’, pero que no lo hace para contárselo a otras personas sino como un ‘autocuento’”. Matías dijo que se encontró con el TID a través de una película y, al sentirse interpelado, consultó en Google y en YouTube en busca de información. “Obviamente no me basé en la película para darme un diagnóstico ni nada, o sea, busqué más información porque sabía que las películas son fantasiosas… entonces en TikTok busqué sobre eso y me aparecieron personas que también tienen TID”, dijo.
Con respecto a la privacidad, de entrada el trabajo señala que la política de privacidad de TikTok es poco respetuosa de los datos personales y de la información generada por usuarios y usuarias. “El algoritmo de TikTok es percibido como una entidad con vida propia que predice, casi mágicamente, los gustos, preferencias y hasta los pensamientos de los usuarios: ‘el algoritmo se dio cuenta de lo que me gusta’ explica Daniela de 15 años, pero es frase corriente en la vida cotidiana contemporánea”, describe y pone foco en un modelo de negocios que se basa en la recopilación masiva de datos personales sobre el comportamiento de cada uno y esta extracción masiva no puede desactivarse.
También se hace referencia a que los jóvenes entrevistados cultivan comportamientos que, directa o indirectamente, son indicativos de la conciencia de que sus datos y la huella digital son rastreables e identificables por personas conocidas y desconocidas, además de nutrir un modelo de negocios de los servicios digitales que utilizan. Además, sus términos y condiciones prácticamente no son leídos en ningún y tiene reglas que difieren según los países.
Conclusiones
Estás son algunas de las conclusiones a las que llega el informe (y que, en general, no fueron abordadas arriba):
– “La sensación de adicción aparece vinculada con el teléfono móvil en general y con TikTok en particular”.
– “Al igual que en otros ámbitos, en TikTok circulan discursos agresivos en videos posteados y comentarios violentos (haters) en videos contenidos no violentos. Hay contenido ilegal y hay contenido ilícito. En comparación con otras redes, al ser contenidos audiovisuales de breve duración, los de TikTok tienen alta pregnancia, según se desprende de los testimonios de sus usuarias/os”.
– “La posesión de varias cuentas en distintas redes, y en particular en TikTok, algunas de las cuales son conocidas por familiares y amigos, pero otras son ocultadas a esas mismas personas, es un indicador de que hay estrategias y tácticas razonadas para su uso. Lo mismo cabe decir de las cuentas para stalkear a otras personas o para “no caer en el lado malo” de TikTok”.
– “TikTok ofrece un abanico de “soluciones a la carta” que parecen más rápidas, personalizadas y sin espera. La pandemia COVID_19, una situación de excepción para vida social fue experimentada con altos niveles de soledad, volviéndose el contexto ideal que potenció la relación entre los jóvenes y ‘el algoritmo’ de TikTok”.
Recomendaciones
El trabajo le recomienda al Estado argentino “impedir la elaboración de perfiles personalizados de menores de edad”, “exigir que TikTok cuente con un sistema de recomendación no personalizado como opción para los usuarios”, “establecer el derecho de todos los usuarios a conocer qué criterios de selección determinaron la clasificación y presentación de los contenidos recomendados por la plataforma”, “exigir que todas las campañas publicitarias en las redes sociodigitales estén claramente etiquetadas como tales” y “exigir que se etiqueten todos los bots”.
A la empresa le piden, entre otras cosas:
– “Dejar de recopilar datos personales íntimos y sacar inferencias del tiempo de visualización y la participación de un usuario sobre sus intereses, estado emocional o bienestar con fines de “personalización” de recomendaciones de contenido y orientación de anuncios”.
– “Brindar acceso para que usuarias/os sepan cuándo un contenido es reducido en su exposición, con causas y derecho de reclamo”.
– “Introducir medidas adicionales para prevenir que los usuarios en riesgo caigan en patrones de uso compulsivo y accedan a contenido potencialmente perjudicial”.
Infobae