Londres – Os riscos no TikTok oferecidos por vídeos associados a suicídio, transtornos alimentares e depredações não afetam somente os usuários: uma moderadora abriu um processo nos Estados Unidos para obter compensação por danos psicológicos causados pela exposição a conteúdo mostrando abuso infantil, estupro, sexo entre pessoas e animais, nazismo, decapitações e teorias conspiratórias.
Candie Frazier, moderadora do TikTok, foi demitida ao acionar judicialmente o gigante da mídia social sob a acusação de manter um ambiente de trabalho perigoso para os moderadores.
Ela entrou com uma ação federal contra a TikTok e sua controladora, a chinesa ByteDance, no dia 23 de dezembro em um tribunal da Califórnia, turvando a comemoração do aplicativo que tinha acabado de superar o Google como principal destino na internet em 2021.
Conteúdo nocivo no TikTok
Frazier sustenta que ela e outros moderadores de conteúdo estão regularmente expostos a condições de trabalho inseguras como resultado das políticas e práticas do TikTok.
Os advogados pediram que o tribunal transforme o processo em uma ação coletiva e ordene que a plataforma crie um fundo para compensar financeiramente os funcionários por problemas de saúde decorrentes da visualização de milhares de “vídeos perturbadores” postados por usuários do TikTok.
Leia também
Facebook lista Brasil entre os 3 países com prioridade máxima para moderação de conteúdo político
Redes sociais estão apresentando antissemitismo às novas gerações, aponta pesquisa britânica
Na ação, ela pede também garantias de que a ByteDance passe a fornecer ferramentas, sistemas e suporte psicológico para amenizar os riscos do TikTok aos moderadores, bem como tratamento de saúde mental para milhares deles que ainda trabalham ou que já tenham trabalhado para o TikTok, e que tenham sido afetados pelo que os advogados classificaram como “atos ilegais da ByteDance e do TikTok”.
Candie Frazier é funcionária da Telus International, uma empresa privada que aloca profissionais de moderação de conteúdo para o TikTok de forma terceirizada.
Os moderadores analisam os vídeos postados pelos usuários para garantir que não violem os termos de serviço das plataformas.
Na petição inicial da causa, os advogados explicam como é o trabalho dos moderadores:
“Todos os dias, os usuários do TikTok fazem upload de milhões de vídeos para a plataforma. Muitos incluem conteúdo explícito e questionável, como abuso sexual infantil, estupro, tortura, bestialidade, decapitações, suicídio e assassinato.
Para manter a plataforma limpa, maximizar seus já vastos lucros e cultivar sua imagem pública, a TikTok conta com pessoas como a requerente Frazier – conhecidos como “moderadores de conteúdo” – para examinar esses vídeos e remover qualquer um que viole os termos de uso da empresa.”
Vídeos com desinformação para “desestabilizar a sociedade”
A petição inicial do processo detalha como o conteúdo é prejudicial, apontando não apenas atos criminosos e de conteúdo sexual explícito, mas também desinformação com potencial de “desestabilizar a sociedade”.
“Os moderadores de conteúdo também enfrentam exposição repetida a teorias da conspiração (incluindo sugestões de que a pandemia da Covid-19 é uma fraude), distorções de fatos históricos (como negações de que o Holocausto ocorreu), crenças marginais e desinformação política (como informações falsas sobre a participação no censo, mentiras sobre o status de cidadania de um candidato político ou elegibilidade para um cargo público e vídeos manipulados ou adulterados de autoridades eleitas).”
Leia também
Lush “antissocial” | marca sai de redes sociais em protesto contra ambiente tóxico
Facebook adia lançamento da criptografia de ponta a ponta no Messenger e no Instagram
De acordo com a reclamação de Frazier, ela e seus colegas moderadores de conteúdo são regularmente submetidos a condições de trabalho prejudiciais e ilegais.
Os advogados relataram no processo que os moderadores devem trabalhar em turnos de 12 horas, com apenas dois intervalos de 15 minutos e um intervalo de uma hora, e assistir a milhares de vídeos todos os dias.
Eles afirmam que como muitos dos vídeos são perturbadores, violentos e explícitos, os moderadores sofreram sérios danos psicológicos como resultado direto de seu trabalho.
No processo, Candie Frazier alega que tem problemas para dormir e tem “pesadelos horríveis”, além de risco elevado de transtorno de estresse pós-traumático (PTSD) como resultado direto do trabalho.
Os advogados da moderadora acusam a ByteDance e o TikTok de falharem na adoção de medidas de segurança no local de trabalho que atendam aos padrões da indústria que outras empresas e organizações sem fins lucrativos implementaram”.
Riscos do TikTok seriam amenizados com medidas acordadas pelo setor
Eles afirmam que nem mesmo as práticas sugeridas por uma Coalizão de Tecnologia formada por outras plataformas de mídia social estão sendo cumpridas, apesar de o TikTok ser membro do grupo.
O processo acusa ainda o TikTok de não verificar se os novos contratados têm experiência pessoal com vídeos com imagens fortes e de não treinar os moderadores.
Frazier relatou que os profissionais são punidos se passarem algum tempo sem olharem os vídeos, e que a escala de 12 horas de trabalho dificulta o acesso a recursos de suporte emocional. Ela afirma que a empresa concede 1h de almoço e dois intervalos de 15 minutos.
“O grande volume de conteúdo significa que os moderadores de conteúdo não têm mais de 25 segundos por vídeo e assistem simultaneamente de 3 a 10 vídeos ao mesmo tempo”, explicam os advogados.
O processo de Candie Frazier traz várias reclamações jurídicas contra ByteDance e o TikTok, incluindo negligência de responsabilidade objetiva e padrão e violação da lei de concorrência desleal da Califórnia.
Problemas com vídeos no TikTok podem ofuscar brilho da plataforma
Embora não tenha sofrido os ataques e a crise de imagem vivida pelo Facebook em 2021, que foi responsabilizado pelos males causados a jovens usuários do Instagram, o TikTok também teve que contornar problemas.
Mas eles não foram suficientes para impedir seu crescimento vertiginoso, sobretudo depois da pandemia. No ano passado, o TikTok ocupava apenas a sétima posição entre os domínios de mais alto tráfego, segundo a empresa de monitoramento Cloudfare.
Este ano, desbancou não só o Google.com (que liderara o ranking anterior, incluindo Maps, Translate e News), como também Facebook, Microsoft, Apple, Amazon, Netflix, Youtube, Twitter e WhatsApp, que completam nessa ordem o Top 10 de 2021.
Enquanto isso, em vários países, os desafios propostos na plataforma alarmaram autoridades e críticos dos efeitos das mídias sociais sobre a vida real. A empresa foi obrigada a tirar vários deles do ar.
Nos Estados Unidos, a ideia de gravar vídeos subindo em frágeis blocos de embalagens causou acidentes e ferimentos.
Leia mais
TikTok decide banir “desafio da caixa de leite” após ortopedistas apontarem risco de fraturas
Em setembro, na volta às aulas no hemisfério norte, o desafio era vandalizar banheiros de escolas, iniciativa que despertou a ira de diretores assustados com o roubo de mobiliário e destruição de pias e vasos sanitários.
Leia mais
TikTok é obrigado a remover mais um “desafio” depois de onda de vandalismo em escolas nos EUA
Mais sério, no entanto, é o drama do suicídio associado à plataforma de vídeos curtos.
Também em setembro, a rede social anunciou um conjunto de recursos para ajudar os usuários com problemas de saúde mental e pensamentos suicidas, e além disso expandiu o conteúdo de prevenção a transtornos alimentares.
Leia mais
TikTok anuncia recursos para prevenção de suicídio e amplia conteúdo sobre transtornos alimentares
A mudança foi uma reação aos questionamentos sobre os efeitos do TikTok no bem estar dos usuários, sobretudo depois do caso ocorrido em 2020, quando o filme de um americano cometendo suicídio viralizou na plataforma, alarmando pais de crianças que tiveram acesso às imagens.
Leia também
Rússia aplica multas gigantes a Google e Facebook e bloqueia site de ONG de prisões políticas