Para la agencia de noticias Bloomberg, “el algoritmo de TikTok sigue empujando el suicidio a niños vulnerables”. La inquietante afirmación se sostiene en un extenso informe en el que destaca la voz de los padres de los adolescentes fallecidos.
Para la agencia de noticias Bloomberg, “el algoritmo de TikTok sigue empujando el suicidio a niños vulnerables”. La inquietante afirmación se sostiene en un extenso informe en el que destaca la voz de los padres de los adolescentes fallecidos.
La aplicación puede generar una corriente de ansiedad y desesperación en los adolescentes. TikTok dice que está “haciendo mejoras”, pero enfrenta una avalancha de juicios después de múltiples muertes.
Más de un año después de que Chase Nasca se suicidara a los 16 años, su cuenta sigue activa. Se puede recorrer su feed For You y verá un flujo interminable de clips sobre el amor no correspondido, la desesperanza, el dolor y lo que muchas publicaciones glorifican como el último escape: el suicidio. “Quítate el dolor. La muerte es un regalo”, dice un video subido a la cuenta en febrero pasado, días antes del primer aniversario de la muerte de Chase. En otro, una voz masculina dice: “Voy a poner una escopeta en mi boca y volarme los sesos por la nuca”, y una voz femenina responde: “Genial”.
La cuenta de Chase ya se veía así en los días previos al suicidio del adolescente. El 13 de febrero de 2022, apareció un video de un tren que se aproximaba con la leyenda “Fui a dar un paseo rápido para despejarme la cabeza”. Cinco días después, Chase Nasca se detuvo en las vías del ferrocarril de Long Island que atraviesan el pueblo de Bayport, Nueva York, a casi un kilómetro de su casa. Apoyó la bicicleta contra una cerca y subió a la vía, en una curva ciega de la que sus padres le habían advertido del peligro desde que tenía edad para caminar. Le envió un mensaje a un amigo: “Lo siento. No lo soporto más”. Un tren dobló la curva y lo mató.
Es imposible saber por qué Chase acabó con su vida. Hay múltiples factores que conducen al suicidio, y no dejó ninguna nota. Pero dos semanas después de su muerte, su madre Michelle comenzó a buscar en sus redes sociales, desesperada por encontrar respuestas. Cuando abrió el TikTok de Chase encontró una biblioteca de más de 3.000 videos que su hijo había marcado, gustado, guardado o etiquetado como favorito. Podía ver los términos que había buscado: Batman, básketbol, levantamiento de pesas, discursos de motivación. Y pudo ver lo que le había traído el algoritmo de TikTok: videos sobre depresión, desesperanza y muerte. En suma, su hijo había buscado factores positivos y TikTok le había entregado todo lo contrario.
Desde que TikTok explotó en popularidad en 2018, se trata de comprender su impacto en los niños. Propiedad de la compañía china ByteDance, TikTok alcanzó mil millones de descargas más rápido que cualquier otra red social. Su éxito se debe a su “pegajosidad”. El algoritmo de su motor de recomendación ofrece un carrusel de fascinante contenido para mantener a las personas mirando sus pantallas. TikTok se ha vuelto tan popular que sus rivales tratan de imitarlo. Los políticos están señalando temores de que el gobierno chino pueda usarlo como herramienta de desinformación. En marzo, el gobierno de Joe Biden amenazó con prohibir la aplicación, algo que Trump también amenazó con hacer si ByteDance no vende su participación. Esta semana, el estado de Montana prohibió TikTok.
Investigadores y psicólogos infantiles observan el fenómeno con alarma. Las encuestas de adolescentes han revelado una correlación entre las redes sociales y la depresión, las autolesiones y el suicidio. Los datos de los Centros para el Control y la Prevención de Enfermedades de EEUU muestran que casi 1 de cada 4 adolescentes dijo que había considerado suicidarse en 2021, casi el doble de una década atrás. La Asociación Estadounidense de Psicología culpa en parte a las redes sociales.
En una audiencia del Congreso en marzo, un legislador mencionó la muerte de Chase Nasca, le mostró al director de TikTok, Shou Chew, algunos de los clips que su empresa le había enviado al niño y le preguntó si dejaría que sus propios hijos vieran ese contenido. Ese mismo mes, los padres de Nasca presentaron una demanda por homicidio en Nueva York contra TikTok, ByteDance y el ferrocarril.
El algoritmo de recomendación de TikTok fue diseñado en China. Pero la aplicación se usa casi en todas partes excepto en China. Ni siquiera se puede descargar en China. Un dato sintomático. TikTok dice que ahora lo mantienen ingenieros en América del Norte, Europa y Asia. Pero más de una docena de exempleados dicen que desde Pekín todavía manejan la red. El equipo llamado “Confianza y seguridad” de TikTok diseña políticas para mantener seguros a los usuarios. Con sede en EEUU, Irlanda y Singapur, modera millones de videos todos los días y es responsable de contenidos como el que sexualiza a menores y los desafíos virales que alientan a los niños a participar en desafíos peligrosos (otra fuente de muertes).Pero los exempleados dicen que tenían poca influencia sobre el algoritmo y que sus solicitudes de información eran ignoradas.
TikTok dijo en 2021 que estaba probando formas de evitar que su algoritmo enviara múltiples videos sobre temas como dietas extremas o tristeza. Al año siguiente, la compañía mencionó en una publicación de su blog que “hemos mejorado la experiencia de visualización para que los espectadores ahora vean menos videos sobre estos temas”. Después de que Bloomberg hiciera averiguaciones y antes de que Chew fuera interrogado en el Congreso, la compañía dijo el 16 de marzo pasado que había realizado 15 actualizaciones el último año. Pero las grabaciones de la cuenta de Nasca de abril muestran que estos esfuerzos se quedan cortos. “No entiendo por qué le siguen enviando estas cosas”, dice la madre Michelle. Cada vez que abre la cuenta encuentra un flujo constante de videos sobre depresión, rupturas, muerte y suicidio. Todavía recuerda lo que decía el primer video que vio después de lograr el acceso a la cuenta de su hijo fallecido: “Estoy atrapada en una vida en la que no pedí estar”. Miró durante más de una hora y no podía entender por qué no había videos alegres o divertidos, que es de lo que pensaba que trataba TikTok. Le preguntó a uno de los hermanos mayores por qué había hecho que la cuenta fuera tan oscura. “El no hizo eso, mamá”, respondió su hijo. “Eso viene del algoritmo”.
En un mundo de información infinita, los algoritmos ayudan a determinar qué puede ser significativo para un usuario y qué no. El algoritmo de TikTok está entrenado para rastrear cada me gusta, comentario, volver a mirar y seguir y usar esa información para seleccionar contenido. Una mayor participación aumenta los ingresos por publicidad. La empresa china ha perfeccionado sus “recomendaciones” hasta tal punto que los usuarios a veces sienten que TikTok les lee la mente.
Según Guillaume Chaslot , un científico de datos francés que es consultor del gobierno, el algoritmo de TikTok controla más el contenido que llega a un usuario que las otras redes. Y “cuando el contenido depresivo es bueno para el ’compromiso’ (del usuario), el algoritmo lo promueve activamente”. En 2020, Charles Bahr, exgerente de ventas de TikTok en Alemania, advirtió que el algoritmo estaba enviando comentarios glorificantes del suicidio. Bahr se unió a la empresa en julio de 2020, a los 18 años. Cuando comenzó a usar TikTok su feed era divertido. Pero una vez que comenzó a identificarse como empleado, sus seguidores comenzaron a enviarle videos inquietantes, instándolo a eliminarlos. Uno de los primeros videos que recuerda fue el de un hombre que se pegaba un tiro en la cabeza. Mientras Bahr miraba videos como este, su cuenta comenzó a cambiar. “Aparecían más y más contenidos sobre depresión, suicidio y autolesiones”, dice. “Me tomó tiempo darme cuenta de que no era solo yo quien tenía una alimentación tan extrema”. Bahr dice que planteó sus preocupaciones, pero no tuvo respuesta. Unos meses después fue despedido por presunto fraude de gastos. Bahr demandó a la empresa por despido improcedente. TikTok no prosiguió sus reclamos contra Bahr y llegó a un acuerdo extrajudicial.
La pandemia intensificó el debate sobre el impacto del diseño algorítmico en los niños, ya que los padres se preocuparon por el aislamiento y la ansiedad provocados por los cierres, el cierre de escuelas y el aumento del uso de las redes sociales. En diciembre de 2021, el cirujano general de EEUU, Vivek Murthy, publicó un aviso de seguridad sobre una crisis de salud mental juvenil que se avecinaba, y dijo que las crecientes tasas de desesperanza y pensamientos suicidas entre los adolescentes podrían estar relacionadas tanto con el confinamiento por el covid-19 como con las redes sociales. A demasiados jóvenes, dijo, se les decía en estas plataformas que no eran “lo suficientemente atractivos, lo suficientemente populares, lo suficientemente inteligentes o lo suficientemente ricos”. Hizo un llamado a las empresas de redes sociales para que diseñen sus algoritmos de manera que fortalezcan la salud mental de los jóvenes, en lugar de debilitarla. TikTok, claramente, no escuchó aquel reclamo.