Seis famílias decidiram recorrer à Justiça norte-americana após perderem seus filhos em circunstâncias semelhantes. Segundo a ação, adolescentes com idades entre 11 e 17 anos morreram ao tentar reproduzir o chamado “desafio do apagão”, uma prática perigosa que circulou em vídeos no TikTok.
O desafio consiste em provocar dados físico a si mesmo até a perda de consciência. Comportamento que, de acordo com os pais, foi estimulado por conteúdos exibidos repetidamente na plataforma.
O processo descreve que todas as crianças foram encontradas sem vida e em situações compatíveis com a tentativa de cumprir o desafio. Para os autores da ação, não se trata de episódios isolados, mas de um padrão relacionado à forma como o TikTok recomenda vídeos a seus usuários mais jovens.
O papel do algoritmo
No centro da disputa, está o funcionamento do algoritmo da rede social. A ação sustenta que as mortes foram consequência previsível de um sistema projetado para maximizar o engajamento, mesmo quando isso implica expor crianças e adolescentes a conteúdos extremos.
Segundo os advogados das famílias, as decisões de programação da ByteDance, controladora do TikTok, teriam priorizado retenção e tempo de tela por quaisquer meios necessários.
O caso foi protocolado no Tribunal Superior do Estado de Delaware e cita duas entidades legais do TikTok, além da ByteDance. A escolha do foro se deve ao fato de a ByteDance e a TikTok LLC serem incorporadas nesse estado, apesar de parte das famílias envolvidas viver no Reino Unido.
Defesa da plataforma
Entre os argumentos apresentados pelo TikTok para que a ação seja arquivada, está a alegação de falta de jurisdição, já que cinco das seis famílias são britânicas e os principais réus estariam baseados fora dos Estados Unidos.
A empresa também invoca a Primeira Emenda da Constituição americana e a Communications Decency Act, legislação que limita a responsabilização de plataformas por conteúdos publicados por terceiros.
Contestação jurídica e mobilização dos pais
Para Matthew P. Bergman, advogado que representa as famílias, o foco do processo não é a liberdade de expressão, mas a responsabilidade sobre o produto. Segundo ele, o caso trata de escolhas de design consideradas perigosas e de um modelo de recomendação que teria direcionado conteúdos letais a crianças. Bergman afirma que as famílias aguardam há tempo demais por respostas e responsabilização.
Os pais afirmam que ainda desconhecem exatamente que tipo de conteúdo foi exibido a seus filhos antes das mortes.
De acordo com eles, o TikTok se recusa a fornecer essas informações. As diretrizes da própria plataforma proíbem vídeos que promovam ou glorifiquem atos perigosos capazes de causar ferimentos graves ou morte, o que reforça, na visão das famílias, a necessidade de esclarecimentos.
Entre os casos, está o de Ellen Roome, mãe de Jools Sweeney, que morreu aos 14 anos, em 2022. Desde então, ela lidera uma campanha por uma legislação conhecida como Lei de Jools, que propõe a preservação automática de dados online e de redes sociais de crianças em até cinco dias após a morte.
Para Roome, sem a guarda dessas evidências digitais, torna-se impossível investigar adequadamente a exposição a conteúdos nocivos.
Em manifestações públicas, os pais destacam que, enquanto o processo pode ser visto pelo tribunal como uma questão técnica, para eles o caso representa a perda irreparável de seus filhos.
A expectativa é que a Justiça permita o avanço para a fase de produção de provas, possibilitando compreender como o algoritmo atuou e se houve falhas que possam ser corrigidas para evitar novas tragédias.





