Como a tendência viral do TikTok está desrespeitando a deficiência e cruzando limites éticos, gerando preocupações sobre a exploração de grupos marginalizados.
Recentemente, uma tendência viral no TikTok tem gerado debates profundos sobre ética e respeito às pessoas com síndrome de Down. À primeira vista, os vídeos parecem simples armadilhas de atenção, com pessoas dançando ou se exibindo em poses sedutoras, adornadas com filtros de IA.
Mas quando se observa mais de perto, a realidade é muito mais perturbadora: os vídeos mostram versões falsas e sexualizadas de indivíduos com síndrome de Down, distorcendo suas características faciais para se encaixar em padrões estéticos que não têm relação com a realidade dessas pessoas.
Esses clipes frequentemente apresentam mulheres com traços faciais alterados para se assemelhar a indivíduos com síndrome de Down, misturados a roupas provocantes, expressões exageradas e comportamentos que claramente visam chocar e atrair visualizações.
Em alguns casos, esses vídeos direcionam o público para plataformas de conteúdo adulto, criando uma identidade fabricada e sexualizada com o único objetivo de gerar engajamento. Essa distorção de uma condição real e séria é feita de maneira extremamente irresponsável, sem qualquer contexto ou mensagem educativa.
Embora os filtros de IA tenham se tornado populares no TikTok, comumente usados para alterar a aparência de quem os utiliza, essa tendência ultrapassa todos os limites.
Em vez de criar versões caricaturais ou envelhecer rostos, os filtros estão sendo usados para imitar um grupo de pessoas marginalizado, combinando sua imagem com comportamentos sexualizados.
A questão não é apenas sobre o mau uso da tecnologia, mas também sobre o impacto disso nas comunidades marginalizadas, que muitas vezes já enfrentam dificuldades para se verem representadas de forma digna e respeitosa.
Essa prática tem gerado forte reação entre ativistas e defensores dos direitos das pessoas com síndrome de Down. Charlotte Woodward, uma ativista que possui a condição, se manifestou sobre a questão, dizendo ao New York Post: “Não só acho isso perturbador, como também pessoalmente perturbador. Também sinto raiva e indignação”.
Para ela e muitos outros, esses vídeos não são apenas ofensivos, mas são um exemplo claro de exploração e desumanização.
A Sociedade Nacional da Síndrome de Down (NDSS) também se posicionou contra essa tendência, criticando a prática de “exploração da deficiência para obter cliques”. Kandi Pickard, CEO da organização, afirmou que o conteúdo “demonstra uma total falta de respeito e compreensão” e classificou esses vídeos como uma manifestação perigosa e degradante de como a tecnologia pode ser mal utilizada para atingir aqueles que já estão em uma posição vulnerável.
Em resposta à crescente pressão pública, tanto o TikTok quanto a Meta (dona do Instagram) alegaram que suas políticas incluem a remoção de conteúdo gerado por IA que seja ofensivo ou prejudicial.
De fato, alguns filtros têm sido removidos desde o início da repercussão negativa. No entanto, muitos desses vídeos continuam disponíveis online, acumulando milhões de visualizações e interações.
Isso revela um problema ainda maior: os criadores de conteúdo sabem que podem ultrapassar os limites sem sofrer consequências reais. Sem uma fiscalização eficaz, esse tipo de conteúdo continuará circulando, criando um ciclo de normalização de comportamentos nocivos.
Essa tendência viral, que já gerou tanta indignação, também levanta questões muito mais amplas. Quem controla como as deficiências são retratadas nas plataformas digitais? Como as tecnologias de IA estão sendo usadas de forma irresponsável para criar representações falsas e hipersexualizadas?
E o mais importante, qual é a responsabilidade das plataformas digitais ao permitir a disseminação desse tipo de conteúdo?
Embora as tendências no TikTok venham e vão rapidamente, o impacto dessas ações fica para sempre, especialmente quando a sexualização e distorção da realidade se tornam algo “normalizado” para muitas pessoas.
Quando você se deparar com vídeos como esses em seu feed, é fundamental não compartilhá-los. Não contribua para a disseminação de conteúdo prejudicial.
Se queremos um ambiente digital mais inclusivo e respeitoso, precisamos cobrar responsabilidade dos criadores e das plataformas. Afinal, só porque algo se torna viral, não significa que mereça nossa atenção ou apoio.
O uso de filtros de IA para distorcer a realidade de grupos vulneráveis não é uma simples brincadeira ou sátira. É uma forma de exploração que precisa ser combatida para que possamos, de fato, construir uma internet mais justa e respeitosa.