De acordo com sua estimativa, Trevin Brownie viu mais de mil pessoas serem decapitadas.
Em seu trabalho, ele tinha de assistir a um novo vídeo do Facebook a cada 55 segundos, aproximadamente, diz, e remover e categorizar o conteúdo mais nocivo e explícito. No primeiro dia de trabalho, ele recorda que a repulsa o fez vomitar, depois de assistir a um vídeo que mostrava um homem se suicidando na frente de seu filho de três anos.
Depois disso, as coisas pioraram. “Você vê pornografia infantil, zoofilia, necrofilia, violência contra pessoas, violência contra animais, estupros”, ele diz, com a voz embargada. “Como usuário, você não vê coisas como essas no Facebook. É meu trabalho como moderador garantir que você não veja coisas como essas”.
Depois de algum tempo, ele diz, os horrores incessantes começam a afetar o moderador de maneiras inesperadas. “Você chega a um ponto, depois de ter visto 100 decapitações, em que começa a torcer para que a próxima seja mais horrível. É um tipo de vício“.
Brownie é um dentre as centenas de jovens, a maioria na faixa dos 20 anos, que foram recrutados pela Sama, uma empresa de terceirização de mão de obra sediada em San Francisco, para trabalhar no centro de operações que ela mantém em Nairóbi, moderando o conteúdo do Facebook.
Sul-africano, ele agora faz parte de um grupo de 184 queixosos envolvidos em um processo contra a Sama e a Meta, controladora do Facebook, por supostas violações de direitos humanos e rescisão indevida de contratos.
O processo é um dos maiores desse tipo em todo o mundo, mas é apenas um dos três que estão sendo movidos contra a Meta no Quênia. Juntos, eles têm implicações potencialmente mundiais para as condições de emprego de um exército oculto de dezenas de milhares de moderadores, empregados para filtrar o material mais tóxico das redes de mídia social do planeta, dizem os advogados envolvidos.
Em 2020, o Facebook aceitou um acordo sob o qual pagou US$ 52 milhões para encerrar um processo e prover tratamentos de saúde mental para moderadores de conteúdo americanos. Outros processos movidos por moderadores na Irlanda buscam indenização por suposto transtorno de estresse pós-traumático.
Mas os casos do Quênia são os primeiros apresentados fora dos Estados Unidos que buscam mudar, por meio de processos judiciais, a forma pela qual os moderadores de conteúdo do Facebook são tratados. Caso sejam bem-sucedidos, poderão levar a muitas outras ações em lugares onde o Meta e outros provedores de mídia social examinam conteúdo por meio de trabalhadores terceirizados, e podem melhorar as condições de milhares de trabalhadores que recebem pagamento comparativamente baixo para se exporem ao pior da humanidade.
Da mesma forma que trabalhar em uma fábrica ou inalar pó de carvão destruía os corpos dos trabalhadores na era industrial, dizem os advogados dos moderadores, as pessoas que trabalham nas modernas fábricas digitais de mídia social correm o risco de ter suas mentes arruinadas.
“Essas são questões de primeira linha para os direitos trabalhistas nesta geração”, diz Neema Mutemi, professora da Universidade de Nairóbi que está ajudando a divulgar o caso. A Meta foi contatada para que expressasse sua opinião sobre as acusações, mas afirmou que não faz comentários sobre processos judiciais em andamento.
DANOS ONLINE
Nos últimos anos, a Meta vem sofrendo pressão crescente para moderar o conteúdo abrasivo e a desinformação em suas plataformas, que incluem Facebook, WhatsApp e Instagram.
Em Mianmar, enfrentou acusações de que seus algoritmos reforçavam a retórica do ódio e por não conseguir remover posts que incitavam a violência contra a minoria rohingya, que sofreu milhares de mortes e um êxodo de centenas de milhares de refugiados que fugiram para Bangladesh.
Na Índia, especialistas afirmaram que a empresa não conseguiu suprimir a desinformação e o incitamento à violência, o que levou a tumultos no país, seu maior mercado nacional.
Em 2021, a denunciante Frances Haugen vazou milhares de documentos internos revelando a abordagem da empresa para proteger seus usuários e disse ao Senado dos Estados Unidos que o Facebook priorizava “o lucro em detrimento da segurança”.
Os documentos mostravam que a Meta falhou principalmente na filtragem de conteúdo polêmico e na proteção de usuários em países não ocidentais, como Etiópia, Afeganistão e Líbia, ainda que pesquisas internas do Facebook classificassem essas regiões como de “alto risco” devido ao cenário político frágil e ao uso frequente da retórica de ódio.
Nos últimos anos, a Meta investiu bilhões de dólares para combater os danos em seus aplicativos, recrutando cerca de 40 mil pessoas para trabalhar nas áreas de segurança e proteção, muitas delas contratadas por meio de empresas terceirizadas como a Accenture, Cognizant e Covalen.
Estima-se que cerca de 15 mil desses trabalhadores sejam moderadores de conteúdo. Fora dos Estados Unidos, a Meta trabalha com empresas terceirizadas em mais de 20 lugares do planeta, entre os quais Índia, Filipinas, Irlanda e Polônia, que agora ajudam a filtrar conteúdo em múltiplos idiomas estrangeiros.
Em 2019, a Meta solicitou que a Sama —que vinha trabalhando há vários anos em Nairóbi, para clientes como a Meta e a Tesla, na rotulagem de dados para treinamento de software de inteligência artificial— assumisse o trabalho de moderação de conteúdo. Isso faria parte de uma nova central africana que se concentraria na filtragem de conteúdo em idiomas africanos.
A Sama afirma que nunca havia feito esse tipo de trabalho anteriormente. Mas sua equipe local apoiou ideia de aceitar o trabalho, que, de outra forma, poderia ter sido feito nas Filipinas, devido a um senso de responsabilidade quanto a trazer seu conhecimento cultural e linguístico à moderação de conteúdo africano. A empresa começou a contratar pessoas de países como Burundi, Etiópia, Quênia, Somália, África do Sul e Uganda, para trabalhar em suas instalações em Nairóbi.
Isso provou ser um erro. Quatro anos depois de iniciar a moderação de conteúdo, a Sama decidiu sair do negócio, encerrando seu contrato com o Facebook e demitindo alguns dos executivos que haviam supervisionado o novo trabalho.
Brownie, que havia sido recrutado em 2019 na África do Sul para trabalhar na central de moderação de Nairóbi, estava entre os trabalhadores que receberam aviso prévio em janeiro deste ano, quando a Sama informou aos seus funcionários que deixaria de moderar o conteúdo do Facebook.
“É um trabalho importante, mas acho que está se tornando muito, muito desafiador”, disse Wendy Gonzalez, presidente-executiva da Sama, ao Financial Times, acrescentando que a moderação de conteúdo representava apenas 2% dos negócios da empresa. “Optamos por sair completamente desse negócio”.
Muitos dos moderadores que trabalham no Quênia dizem que o trabalho deixa cicatrizes psicológicas, causa flashbacks perturbadores e impossibilita que mantenham relações sociais normais.
“As coisas que você vê são indeléveis. Muitos de nós não conseguem dormir, agora”, diz Kauna Ibrahim Malgwi, nigeriana formada em psicologia que começou a trabalhar na central de moderação da Sama em Nairóbi em 2019 e moderava conteúdo no idioma hauçá, falado em toda a África Ocidental. Malgwi diz que está tomando antidepressivos.
Cori Crider, diretora do Foxglove, um escritório de advocacia sem fins lucrativos com sede em Londres que está apoiando os antigos moderadores da Sama em seu caso, diz que eles recebem proteção totalmente inadequada contra o estresse psicológico.
“Os policiais que investigam casos de imagens de abuso infantil contam com uma armada de psiquiatras, e limites rígidos sobre a quantidade de material que podem ver”, ela diz. Mas os conselheiros contratados pela Sama em nome da Meta “não são qualificados para diagnosticar ou tratar o transtorno de estresse pós-traumático”, diz a advogada. “Esses ‘coaches’ se limitam a recomendar que as pessoas façam exercícios de respiração e que pintem com os dedos. Não são profissionais”.
A Sama diz que todos os conselheiros que empregou contavam com qualificações profissionais conferidas pelo Quênia.
A Meta argumentou que os tribunais do Quênia não tinham jurisdição no caso sobre demissões indevidas. Mas em 20 de abril, em uma decisão que os moderadores e seus advogados consideraram como uma grande vitória, um juiz queniano determinou que a Meta poderia de fato ser processada no país. A empresa está recorrendo.
“Se a Shell viesse e despejasse coisas na costa do Quênia, seria muito óbvio se o Quênia tem ou não jurisdição”, diz Mercy Mutemi, advogada queniana do escritório Nzili and Sumbi Advocates, que está representando os moderadores. “Não se trata de algo físico, tangível. Trata-se de tecnologia. Mas o argumento é o mesmo. Eles vieram aqui para causar danos”.
CONDIÇÕES DE TRABALHO
O caso dos 184 moderadores é um dos três processos judiciais movidas em nome dos moderadores de conteúdo pelo escritório de advocacia de Mutemi, com apoio do Foxglove.
NOTÍCIAS RELACIONADAS
O primeiro foi apresentado no ano passado em nome de Daniel Motaung, um moderador sul-africano que trabalha em Nairóbi, contra a Sama e a Meta. Também naquele caso, um juiz queniano diferente rejeitou a afirmação da Meta de que os tribunais quenianos não tinham jurisdição.
Motaung afirma que foi demitido injustamente depois que tentou formar um sindicato para pressionar por melhores salários e condições de trabalho. Ele também afirma ter sido atraído para o emprego sob falsos pretextos, sem saber exatamente o que o trabalho implicava.
A Sama contesta essas afirmações, dizendo que os moderadores de conteúdo estavam familiarizados com a natureza do trabalho que fariam, durante o processo de contratação e treinamento, e que Motaung foi demitido por ter violado o código de conduta da empresa. “No que diz respeito à formação do sindicato, temos normas em vigor quanto à liberdade de associação”, diz Gonzalez. “Se um sindicato estava sendo formado, isso não seria problema”.
Os moderadores de conteúdo recrutados de fora do Quênia recebiam cerca de 60 mil xelins quenianos por mês, incluindo um subsídio para expatriados, o equivalente a cerca de US$ 564, pelas taxas de câmbio de 2020.
Em geral, os moderadores trabalhavam em turnos de nove horas, com uma hora de intervalo, duas semanas durante o dia e duas semanas à noite. O salário líquido deles, descontados os impostos, era de aproximadamente US$ 2,20 por hora.
A Sama diz que esses salários eram várias vezes mais altos que o salário mínimo e equivalentes ao salário recebido por paramédicos ou professores de nível superior no Quênia. “São salários significativos”, diz Gonzalez.
Os dados sugerem que os salários dos trabalhadores expatriados eram pouco mais de quatro vezes superiores ao salário mínimo do Quênia, mas Crider, da Foxglove, diz que isso não a impressiona: “US$ 2,20 por hora para se submeter a repetidas imagens de assassinato, tortura e abuso infantil? É uma ninharia.”
Haugen, a ex-executiva que denunciou o Facebook, disse que a luta de Motaung pelos direitos dos trabalhadores era o equivalente, na era digital, às lutas trabalhistas do passado. “Pessoas que lutaram umas pelas outras são a razão pela qual temos uma semana de trabalho de 40 horas”, ela disse, falando em um evento ao lado de Motaung em Londres, no ano passado. “Precisamos estender essa solidariedade a uma nova frente, em coisas como as fábricas de moderação de conteúdo”.
Este mês, moderadores em Nairóbi votaram em favor de formar o que seus advogados dizem ser o primeiro sindicato de moderadores de conteúdo do mundo. Motaung classificou a resolução como “um momento histórico”.
O último dos três casos que estão sendo julgados no Quênia não trata de legislação trabalhista, mas das supostas consequências do material postado no Facebook. A ação propõe que que a falha do Facebook em lidar com a retórica do ódio e incitação à violência alimentou a violência étnica na guerra civil da Etiópia, que durou dois anos e terminou em novembro.
Crider afirma que os três processos se conectam porque o tratamento inadequado dos moderadores de conteúdo resulta diretamente na disseminação de conteúdo inseguro, que é veiculado sem controle pelas plataformas da Meta.
Um dos dois autores da ação, o pesquisador Abrham Meareg, afirma que seu pai, professor de química, foi morto na região de Amhara, na Etiópia, em outubro de 2021, depois que um post no Facebook revelou seu endereço e apelou por seu assassinato. Abrham diz que solicitou diversas vezes ao Facebook que removesse o conteúdo, sem sucesso.
A Sama empregava cerca de 25 pessoas para moderar o conteúdo da Etiópia, em três idiomas —amárico, tigrínio e oromo— na época de um conflito que despertou animosidade étnica e pode ter causado até 600 mil mortes.
Advogados no Quênia estão buscando a criação de um fundo de US$ 1,6 bilhão para indenizar as vítimas, e melhores condições para futuros moderadores de conteúdo. Crucialmente, eles também estão solicitando mudanças no algoritmo do Facebook para evitar que isso aconteça em outros lugares no futuro.
Os advogados afirmam que, para competir com outras plataformas, o Facebook deliberadamente maximiza o envolvimento do usuário para obter lucro, o que pode ajudar a tornar viral um conteúdo inseguro ou perigoso.
“O caso de Abrham não é isolado ou único”, diz Rosa Curling, diretora do Foxglove. “Há inúmeros exemplos de coisas publicadas no Facebook, [apelos para que pessoas] sejam mortas. E isso de fato acontece”.
Curling diz que a qualidade da moderação do Facebook no centro de Nairóbi é afetada pelas práticas de trabalho que agora estão sendo contestadas no tribunal.
Gonzalez, da Sama, reconhece que a regulamentação da moderação de conteúdo é deficiente, dizendo que a questão deveria ser “prioritária” para os líderes das empresas de mídia social. “As plataformas, e não só esta [Facebook] em particular como outras também, estão meio que à solta”, diz ela. “É preciso haver controles, contrapesos e proteções”.
Embora a Meta tenha dezenas de milhares de moderadores humanos sob contrato, ela já está investindo pesadamente em sua substituição por software de inteligência artificial que pode filtrar desinformação, retórica de ódio e outras formas de conteúdo tóxico em suas plataformas. No trimestre mais recente, a empresa afirmou que 98% do “conteúdo violento e explícito” retirado do ar foi detectado por meio da inteligência artificial”.
No entanto, os críticos apontam que a enorme quantidade de conteúdo nocivo que permanece online em lugares como a Etiópia é uma prova de que o software de inteligência artificial ainda não consegue captar as nuanças necessárias para moderar imagens e a fala humana.
“NÃO É UM TRABALHO NORMAL”
Além de poderem estabelecer um precedente legal, os casos no Quênia oferecem um raro vislumbre da vida profissional dos moderadores de conteúdo, que normalmente trabalham de forma anônima.
Os acordos de confidencialidade que eles são obrigados a assinar, geralmente a pedido de fornecedores de mão de obra terceirizada como a Sama, os proíbem de revelar detalhes de seu trabalho até mesmo às suas famílias. Gonzalez diz que isso acontece para proteger os dados confidenciais dos clientes.
Frank Mugisha, ex-funcionário da Sama em Uganda, tem outra explicação. “Nunca tive a chance de compartilhar minha história com ninguém, porque minha situação sempre foi mantido em segredo, um segredo sujo”, ele diz.
Depois de perderem seus empregos, os funcionários da Sama que vinham de outros países que não o Quênia agora enfrentam a possibilidade de serem expulsos do país, embora um tribunal tenha concedido uma liminar provisória impedindo que a Meta e a Sama rescindam os contratos dos moderadores até que a legalidade de sua demissão seja julgada.
Ainda assim, vários ex-funcionários da Sama não recebem salários desde abril, quando a empresa rescindiu seu contrato com a Meta, e estão sujeitos a despejo por falta de pagamento de aluguel.
Todos os moderadores de conteúdo que falaram com o Financial Times assinaram acordos de confidencialidade. Mas seus advogados disseram que os contratos não os impediam de discutir suas condições de trabalho.
As críticas dos moderadores vindos de diversos países da África foram coerentes. Todos disseram que aceitaram o emprego sem que estivessem devidamente informados sobre o que o trabalho envolvia. Todos reclamaram da pressão constante dos gestores para que trabalhassem com rapidez, com a exigência de lidar com cada “tíquete”, ou item, em 50 ou 55 segundos
A Meta afirmou que não impõe cotas aos revisores de conteúdo e disse que eles “não são pressionados a tomar decisões precipitadas”, embora tenha dito que “eficiência e eficácia” são fatores importantes no trabalho.
Malgwi, a psicóloga nigeriana, descarta aquilo que os moderadores classificam como uma tentativa do Facebook de manter distância, ao usar empresas terceirizadas como a Sama. “Fazemos login todas as manhãs na plataforma da Meta”, ela diz. “Você lê: ‘Bem-vindo. Obrigado por proteger a comunidade Meta’”.
Fasica Gebrekidan, uma moderadora etíope que estudou jornalismo na Universidade de Mekelle, conseguiu um emprego na Sama logo após fugir da guerra civil da Etiópia em 2021. Depois de saber que estaria trabalhando indiretamente para a Meta, ela pensou “talvez eu seja a garota mais sortuda do mundo”, diz. “Não esperava que todos os dias tivesse de ver corpos desmembrados por ataques de ‘drones’”, acrescenta.
Até agora, Gebrekidan não falou com ninguém a respeito de seu trabalho, ocultando a natureza daquilo que faz até mesmo de sua mãe. “Sei que o que faço não é um trabalho normal”, ela diz. “Mas me considero uma heroína por filtrar todo aquele material tóxico e negativo.”
- CATEGORIAS