Lo que hace a las redes sociales tan populares son sistemas que tienen a la gente ‘atrapada’, manipulando sus reacciones, creando inseguridades y creando dependencias psicológicas.

Esto es ya conocido, no es un tema nuevo pero son pocos los estudios que en verdad se han llevado acabo para comprobarlo. En especial dada la cantidad de contenido y presencia que tienes la redes sociales en nuestro día a día.

Es así que el estudio llevado a cabo por el centro contra el odio digital (CCDH por sus siglas en inglés) se antepone como una novedad. Teniendo a Tik Tok como objeto de estudio el centro fue capaz de comprobar que dentro de los primeros 2.6 minutos (en promedio) la famosa aplicación recomienda a los nuevos usuarios contenido suicida.

Los perfiles usados para el análisis adoptaban las características – se hacían pasar- por niños y niñas de13 años interesados en contenido de imagen corporal y salud mental.  El algoritmo entonces procedí a identificar y mostrar contenido suicida. Contenidos sobre desórdenes alimenticios se presentaron a partir de lo 8 minutos de uso.

En este último ejemplo, los investigadores encontrar 56 hashtag usados para referir a desordenes alimenticios con un total de 13.2 millones de vistas.

«El nuevo informe del Center for Countering Digital Hate subraya por qué ya es hora de que TikTok tome medidas para abordar la peligrosa amplificación algorítmica de la plataforma», dijo James P. Steyer, fundador y director ejecutivo de Common Sense Media, que no está afiliado a el estudio.

«El algoritmo de TikTok está bombardeando a los adolescentes con contenido dañino que promueve el suicidio, los trastornos alimentarios y los problemas de imagen corporal que están alimentando la crisis de salud mental de los adolescentes», continuo Steyer.

TikTok se ha convertido en la aplicación más usada en la historia en 2021 llegando a tener un billón de usuarios. Funcionando a base de algoritmos, la aplicación recomiendo a los usuarios videos en base a el contenido que ‘les gusta’, que buscan o que ven. Este es el normal procedimiento para toda red social de hoy en día.

Sin embargo, las investigaciones han comprobado que el algoritmo de TikTok muestra contenido dañino a usuarios vulnerables para mantenerlos interesados en la aplicación poniendo en grave riesgo su salud mental. El algoritmo puede, aparentemente, identificar con gran velocidad a los usuarios vulnerables.  

«TikTok es capaz de reconocer la vulnerabilidad del usuario y busca explotarla», dijo Imran Ahmed, director ejecutivo de CCDH, quien se encuentra en Washington D.C., abogando por la Ley de Seguridad en Línea para Niños (Kids Online Safety Act, KOSA), que establecería medidas de seguridad para proteger a los menores en línea. «Es parte de lo que hace que los algoritmos de TikTok sean tan insidiosos; la aplicación constantemente prueba la psicología de nuestros hijos y se adapta para mantenerlos en línea».

WP Twitter Auto Publish Powered By : XYZScripts.com