Washington, 28 ago. (Amexi).- La plataforma de TikTok deberá enfrentar un juicio en Estados Unidos por su presunta responsabilidad en la muerte de Nylah Anderson, una niña de 10 años fallecida en 2021 por hacer un desafío viral, que el algoritmo de la red social le recomendó en su feed For You (Para tí).
Pese a que la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 de Estados Unidos, protege a las empresas digitales de la responsabilidad publicada por terceros, el Tribunal de Apelaciones del Tercer Circuito con sede en Filadelfia dictaminó que la ley no impide que Tawainna Anderson, madre de Nylah, exija a TikTok asuma su responsabilidad.
«TikTok toma decisiones sobre el contenido recomendado y promocionado para usuarios específicos y, al hacerlo, participa en su propio discurso de primera mano», afirmó la jueza Patty Shwartz, uno de los tres jueces de Tribunal de Apelaciones en su falló emitido la víspera sobre la revocación de la decisión de un juez de distrito de desestimar la demanda.
El Tribunal de Apelaciones del Tercer Circuito revocó la decisión de un juez de un tribunal inferior que desestimó, basándose en la Sección 230, el caso presentado por Tawainna Anderson contra TikTok y su empresa matriz china ByteDance por el lamentable fallecimiento de su hija de 10 años.
«Desafío del apagón», un reto viral en 2021
La pequeña Nylah fue encontrada por su madre inconsciente en el armario de su casa en el condado de Delaware, Pensilvania, después de hacer el «desafío del apagón», un reto viral en TikTok en 2021, que desafiaba a las personas ahorcarse con algún objeto hasta perder el conocimiento y que la plataforma le recomendó a través de la función de preferencias personalizadas.
Pese a los esfuerzos para reanimarla y que Nylah recibió atención médica, la niña murió cinco días después de hacer el “reto del apagón”, usando una correa de un bolso colgado en el armario de su madre, quien demandó a TikTok por la recomendación del desafío mortal que hizo a su hija.
Shwartz resaltó que la decisión del Tribunal de Apelaciones representa un cambio importante sobre sus decisiones previas sobre la Sección 230, cuya inmunidad ahora ya no es válida, ya que la Corte Suprema de Estados Unidos determinó el mes pasado que las leyes estatales diseñadas para restringir el poder de las redes sociales para frenar el contenido que consideran objetable violan sus derechos de libertad de expresión.
En opinión de la magistrada, aunque la ley federal estadunidense proteja a los editores en línea de la responsabilidad por el contenido publicado por terceros, TikTok podría ser potencialmente responsable de la muerte de Nylah, por promover el contenido o usar un algoritmo para dirigirlo a los niños.
«Desafío del apagón»
La defensa de la familia Anderson argumenta el «desafío del apagón” apareció en el feed For You de Nylah después de que el algoritmo de TikTok determinó que era apto para la niña y que podía verlo, aun cuando ya se había informado de lo peligro que era el reto viral y que otros menores perdieron la vida por intentarlo.
«Nylah, que todavía estaba en su primer año de adolescencia, probablemente no tenía idea de lo que estaba haciendo o de que seguir las imágenes en su pantalla la mataría. Pero TikTok sabía que Nylah las miraría, porque el algoritmo personalizado de la compañía colocó los videos en su feed ‘Para tí'», escribió el juez Paul Matey.
Jeffrey Goodman, abogado de la familia, dijo este miércoles que es «inevitable» que los tribunales examinen más detenidamente la Sección 230, ya que la tecnología está afectando a todas las facetas de nuestras vidas, pero confía en que el fallo ayude a proteger a otros niños, ya que nada podrá regresarle la vida a Nylah Anderson.
Lee: ¿Por qué EEUU no quiere a TikTok?