Mídia

Facebook Papers: os problemas da empresa são ainda maiores na Índia

Documentos internos mostram a luta contra a desinformação, o discurso de ódio e as comemorações da violência no país, maior mercado da empresa

25/10/2021 16:26

Ilustração de Mel Haasch; fotografias de Rebecca Conway para o The New York Times, Manjunath Kiran / Agence France-Presse - Getty Images

Créditos da foto: Ilustração de Mel Haasch; fotografias de Rebecca Conway para o The New York Times, Manjunath Kiran / Agence France-Presse - Getty Images

 

Em 4 de fevereiro de 2019, uma pesquisadora do Facebook criou uma nova conta de usuário para viver a experiência, na mídia social, de uma pessoa que vive em Kerala, na Índia.

Durante as três semanas seguintes, a conta foi operada por uma regra simples: seguir todas as recomendações geradas pelos algoritmos do Facebook para ingressar em grupos, assistir a vídeos e explorar novas páginas do site.

O resultado foi uma inundação de discurso de ódio, desinformação e celebrações de violência, que foram documentadas em um relatório interno do Facebook publicado no final daquele mês.

“Seguindo o feed de notícias desse usuário de teste, vi mais imagens de pessoas mortas nas últimas três semanas do que em toda a minha vida”, escreveu a pesquisadora do Facebook.

Do documento An Indian Test User’s Descent Into a Sea of Polarizing, Nationalistic Messages [O mergulho de um usuário de teste indiano em um mar de mensagens polarizadas nacionalistas]:

“O feed de notícias do usuário de teste tornou-se uma enxurrada quase constante de conteúdo nacionalista polarizado, desinformação, violência e sanguinolência.”

Este foi um entre dezenas de estudos e memorandos escritos por funcionários do Facebook lutando com os efeitos da plataforma na Índia. Eles fornecem evidências nítidas de uma das críticas mais sérias levantadas por ativistas de direitos humanos e políticos contra a empresa de abrangência mundial: o Facebook entra em um país sem compreender totalmente seu impacto potencial na cultura e na política local, e falha em empregar os recursos para agir sobre as questões uma vez que elas ocorrem.

Com 340 milhões de pessoas usando as várias plataformas de mídia social do Facebook, a Índia é o maior mercado da empresa. E os problemas do Facebook no subcontinente apresentam uma versão ampliada dos problemas que a empresa tem enfrentado em todo o mundo, agravados pela falta de recursos e falta de experiência nas 22 línguas oficialmente reconhecidas da Índia.

Os documentos internos, obtidos por um consórcio de organizações de notícias que incluiu o New York Times, fazem parte de um pacote maior de material chamado The Facebook Papers. Eles foram coletados por Frances Haugen, uma ex-gerente de produto do Facebook que se tornou uma denunciante e recentemente testemunhou perante um subcomitê do Senado sobre a empresa e suas plataformas de mídia social. As referências à Índia foram espalhadas entre os documentos apresentados pela Sra. Haugen à Securities and Exchange Commission [autarquia semelhante à Comissão de Valores Mobiliários do Brasil] em uma queixa no início deste mês.

Os documentos incluem relatórios sobre como bots e contas falsas vinculadas ao partido governante do país e a figuras da oposição estavam criando o caos nas eleições nacionais. Eles também detalham como um plano defendido por Mark Zuckerberg, presidente-executivo do Facebook, de se concentrar em “interações sociais significativas”, ou trocas entre amigos e familiares, estava levando a mais desinformação na Índia, especialmente durante a pandemia.

Os EUA, com 10% dos usuários, consome 87% do orçamento do Facebook para detectar desinformação

O Facebook não tinha recursos suficientes na Índia e não foi capaz de lidar com os problemas que apresentou lá, incluindo postagens antimuçulmanas, de acordo com seus documentos. Oitenta e sete por cento do orçamento global da empresa para o tempo gasto na classificação de desinformação é destinado aos Estados Unidos, enquanto apenas 13 por cento é reservado para o resto do mundo - embora os usuários norte-americanos representem apenas 10 por cento da rede social usuários ativos diários, de acordo com um documento que descreve a alocação de recursos do Facebook.

Andy Stone, porta-voz do Facebook, disse que os números estão incompletos e não incluem os parceiros de checagem de fatos da empresa, a maioria dos quais está fora dos Estados Unidos.

O primeiro-ministro indiano Narendra Modi, à esquerda, e o executivo-chefe do Facebook, Mark Zuckerberg, em um encontro com cidadãos na sede do Facebook em Menlo Park, Califórnia, em 2015. Por Max Whittaker para The New York Times

Esse foco desequilibrado nos Estados Unidos teve consequências em vários países além da Índia. Documentos da empresa mostraram que o Facebook implementou medidas para reduzir a desinformação durante as eleições de novembro em Mianmar, incluindo desinformação compartilhada pela junta militar de Mianmar.

A empresa reverteu essas medidas após a eleição, apesar de pesquisa ter mostrado que o número de visualizações de postagens inflamativas foi reduzido em 25,1% e postagens de fotos contendo informações incorretas em 48,5%. Três meses depois, os militares realizaram um violento golpe no país. O Facebook disse que, após o golpe, implementou uma política especial para remover mensagens de apologia e apoio à violência no país e, posteriormente, baniu os militares de Mianmar do Facebook e Instagram.

No Sri Lanka, as pessoas foram capazes de adicionar automaticamente centenas de milhares de usuários a grupos do Facebook, expondo-os a conteúdo odioso e indutor de violência. Na Etiópia, um grupo de jovens milicianos nacionalistas coordenou com sucesso publicações contendo incitação à violência e mensagens inflamativas.

O Facebook investiu significativamente em tecnologia para detectar incitação ao ódio em vários idiomas, incluindo hindi e bengali, dois dos idiomas mais usados, disse Stone. Ele acrescentou que o Facebook reduziu a quantidade de discurso de ódio que as pessoas veem globalmente pela metade neste ano.

“O discurso de ódio contra grupos marginalizados, incluindo muçulmanos, está aumentando na Índia e em todo o mundo”, disse Stone. “Portanto, estamos melhorando a aplicação e estamos comprometidos em atualizar nossas políticas à medida que o discurso de ódio evolui online.”

Na Índia, “há definitivamente uma questão sobre a obtenção de recursos” para o Facebook, mas a resposta não é “simplesmente jogar mais dinheiro no problema”, disse Katie Harbath, que passou 10 anos no Facebook como diretora de políticas públicas e trabalhou diretamente para garantir a segurança das eleições nacionais da Índia. O Facebook, disse ela, precisa encontrar uma solução que possa ser aplicada a países ao redor do mundo.

Eleitores esperando para votar nas eleições legislativas estaduais de Bengala Ocidental em Calcutá em abril. Crédito ... Dibyangshu Sarkar / Agence France-Presse - Getty Images

Os funcionários do Facebook realizaram vários testes e estudos de campo na Índia por vários anos. Esse trabalho aumentou antes das eleições nacionais de 2019; no final de janeiro daquele ano, um punhado de funcionários do Facebook viajou ao país para se encontrar com colegas e falar com dezenas de usuários locais do Facebook.

De acordo com um memorando escrito após a viagem, um dos principais pedidos dos usuários na Índia era que o Facebook "tomasse medidas em relação aos tipos de informações falsas que estão relacionadas a danos no mundo real, especificamente à tensão entre grupos políticos e religiosos".

Dez dias depois que a pesquisadora abriu a conta falsa para estudar desinformação, um atentado suicida na região da disputada fronteira da Caxemira desencadeou uma rodada de violência e um aumento em acusações, desinformação e conspirações entre cidadãos indianos e paquistaneses.

Após o ataque, o conteúdo anti-Paquistão começou a circular nos grupos recomendados pelo Facebook aos quais a pesquisadora havia aderido. Muitos dos grupos, observou ela, tinham dezenas de milhares de usuários. Um outro relatório do Facebook, publicado em dezembro de 2019, descobriu que os usuários indianos do Facebook tendiam a se juntar a grandes grupos, com o tamanho médio de 140.000 membros por grupo.

Postagens recomendadas para a conta de teste: o recurso “Popular no Facebook” começou a recomendar material viral não verificado sobre a ação militar após os ataques aéreos indianos contra o Paquistão na sequência de um atentado suicida na Caxemira. O recurso também começou a recomendar postagens com temas militares não relacionadas aos ataques.

Postagens com violência explícita, incluindo um meme mostrando a decapitação de um paquistanês e cadáveres embrulhados em lençóis brancos no chão, circularam nos grupos aos quais ela tinhea aderido.

Depois que a pesquisadora compartilhou seu estudo de caso com colegas de trabalho, seus colegas comentaram no relatório publicado que estavam preocupados com a desinformação sobre as próximas eleições na Índia.

Do documento An Indian Test User’s Descent Into a Sea of Polarizing, Nationalistic Messages:

“Esses grupos se tornam canais de distribuição perfeitos quando desejam promover conteúdo ruim em um curto período de tempo.”

“Os administradores desses grupos tendiam a assumir uma posição relaxada / atitude indiferente em garantir a adequação do conteúdo compartilhado no grupo e permitiam que os usuários postassem livremente o que achassem interessante / quisessem compartilhar.”

Dois meses depois, após o início das eleições nacionais na Índia, o Facebook implementou uma série de medidas para conter o fluxo de desinformação e discurso de ódio no país, de acordo com um documento interno denominado Indian Election Case Study [Estudo de Caso da Eleição Indiana].

O estudo de caso pintou um quadro otimista dos esforços do Facebook, incluindo a adição de mais parceiros de verificação de fatos - a rede de empresas com que o Facebook trabalha para terceirizar a verificação de fatos - e aumentando a quantidade de desinformação removida. O estudo também observou como o Facebook havia criado uma “lista branca política para limitar o risco de relações públicas", essencialmente uma lista de políticos que receberam uma isenção especial de verificação de fatos.

O estudo não observou o imenso problema que a empresa enfrentou com os bots na Índia, nem questões como a supressão de eleitores. Durante a eleição, o Facebook viu um pico de bots - ou contas falsas - vinculados a vários grupos políticos, bem como esforços para espalhar informações incorretas que podem ter afetado a compreensão das pessoas sobre o processo de votação.

Em um relatório separado produzido após as eleições, o Facebook descobriu que mais de 40 por cento das principais visualizações, ou impressões, no estado indiano de Bengala Ocidental foram “falsas/inautênticas”. Uma conta não autêntica acumulou mais de 30 milhões de impressões.

Um relatório publicado em março de 2021 mostrou que muitos dos problemas citados durante as eleições de 2019 persistiram.

No documento interno, denominado Adversarial Harmful Networks: India Case Study [Redes prejudiciais adversárias: estudo de caso na Índia], pesquisadores do Facebook escreveram que havia grupos e páginas “repletas de conteúdo antimuçulmano incitador e enganoso” no Facebook.

O relatório disse que havia uma série de postagens desumanizantes comparando muçulmanos a “porcos” e “cachorros”, e desinformação alegando que o Alcorão, o livro sagrado do Islã, pede que os homens estuprem seus parentes femininos.

Muito do material circulou em torno de grupos do Facebook que promovem o Rashtriya Swayamsevak Sangh (RSS), um grupo de direita e nacionalista indiano com laços estreitos com o partido governante Bharatiya Janata, ou BJP. Os grupos questionaram a expansão da população de minoria muçulmana em Bengala Ocidental e perto da fronteira do Paquistão e publicaram postagens pedindo a expulsão das populações muçulmanas da Índia, promovendo uma lei de controle da população muçulmana.

O Facebook sabia que essas postagens prejudiciais proliferavam em sua plataforma, indicou o relatório, e precisava melhorar seus “classificadores”, que são sistemas automatizados que podem detectar e remover postagens contendo linguagem violenta e incitadora. O Facebook também hesitou em designar o RSS como uma organização perigosa por causa de “sensibilidades políticas” que poderiam afetar a operação da rede social no país.

Dos 22 idiomas oficialmente reconhecidos da Índia, o Facebook disse que treinou seus sistemas de inteligência artificial em cinco. (Disse que tinha revisores humanos para alguns outros.) Mas em hindi e bengali, ainda não tinha dados suficientes para policiar adequadamente o conteúdo, e muito do conteúdo voltado para os muçulmanos "nunca é sinalizado ou acionado", disse o relatório do Facebook .

Cinco meses atrás, o Facebook ainda tentava se haver com a remoção eficiente de discurso de ódio contra os muçulmanos. Outro relatório da empresa detalhou os esforços de Bajrang Dal, um grupo extremista ligado ao BJP, para publicar posts contendo narrativas anti-muçulmanas na plataforma.

Apoiadores do Partido Bhartiya Janata do Primeiro Ministro Modi celebrando sua liderança nas eleições de 2019 em Nova Delhi. Crédito ... Saumya Khandelwal para The New York Times

O Facebook está avaliando designar o grupo como uma organização perigosa porque está “incitando a violência religiosa” na plataforma, mostrou o documento. Mas ainda não o fez.

“Junte-se ao grupo e ajude a administrar o grupo; aumentar o número de membros do grupo, amigos”, diz uma postagem procurando recrutas no Facebook para divulgar as mensagens de Bajrang Dal. “Lute pela verdade e pela justiça até que os injustos sejam destruídos.”

*Publicado originalmente em The New York Times | Traduzido por César Locatelli

Conteúdo Relacionado