Mídia

Facebook Papers: cumplicidade no ódio, nas mentiras e na violência

''Os algoritmos do Facebook tendem a funcionar muito bem com líderes demagogos que vomitam conteúdo de ódio''

27/10/2021 17:38

Frances Haugen (Matt McClain/Pool via REUTERS)

Créditos da foto: Frances Haugen (Matt McClain/Pool via REUTERS)

 
Milhares de documentos internos do Facebook, vazados para os meios de comunicação, continuam a produzir revelações contundentes sobre como o gigante da mídia social priorizou seus lucros em detrimento da segurança do usuário. Os Facebook Papers fornecem novas evidências de como a empresa deixou sérios problemas envenenarem sua plataforma, incluindo ódio, desinformação e tráfico de pessoas, além de falhar ao não investir na moderação fora dos países de língua inglesa.

A ex-gerente de produto do Facebook que compartilhou os documentos, Frances Haugen, está pressionando os legisladores a regulamentar mais rigidamente as atividades da empresa. Ela testemunhou na segunda-feira (25) perante o parlamento britânico, antes das reuniões programadas com autoridades na França, Alemanha e União Europeia.

O CEO do Facebook, Mark Zuckerberg, diz que os documentos vazados pintam uma “imagem falsa” com base em evidências selecionadas, mas falamos com o professor de estudos de informação da UCLA, Ramesh Srinivasan, que afirma que eles confirmam o que muitos críticos alertaram durante anos. “Esta nova forma de capitalismo digital, que acredito que o Facebook é o pioneiro. é aquela que joga com nossas emoções íntimas em todos os níveis.”

Amy Goodman: Milhares de páginas de documentos internos vazados pela ex-gerente de produto do Facebook que se tornou denunciante, Frances Haugen, são agora a base de uma série de relatórios incriminadores chamados de Facebook Papers, publicados esta semana. Eles mostram como as escolhas da empresa priorizaram lucros em vez de segurança e como o Facebook tentou esconder sua própria pesquisa dos investidores e do público.

Uma nova história publicada na manhã de terça (26), pela Associated Press, revela que os documentos do Facebook mostram que a plataforma ignorou algumas das sugestões de seus próprios pesquisadores para lidar com a desinformação sobre vacinas. O presidente-executivo do Facebook, Mark Zuckerberg, reagiu na segunda-feira durante uma teleconferência com investidores, chamando os relatórios publicados de “esforços coordenados para usar seletivamente documentos que vazaram para pintar uma imagem falsa de nossa empresa”.

Mas as repercussões dos Facebook Papers continuam a gerar apoio político para o aumento da regulamentação. Depois de testemunhar perante o Congresso no início deste mês, na segunda-feira Haugen testemunhou por mais de duas horas perante o Parlamento britânico. Tanto o Reino Unido como a União Europeia estão planejando introduzir novas medidas digitais e de proteção ao consumidor. Ela falou sobre os danos sociais gerados quando a plataforma do Facebook é usada para espalhar discurso de ódio e incitar a violência sem moderação adequada de conteúdo nas línguas locais, como na Etiópia, que agora está engolfada por uma guerra civil.

Frances Haugen: Acho que omitir o dano causado à sociedade é um grave perigo para a democracia e para as sociedades em todo o mundo. Uma razão essencial que me fez decidir por apresentar as denúncias foi observar as consequências das escolhas que o Facebook estava fazendo, Olhei para lugares como o Sul Global e acredito que situações como a da Etiópia são apenas parte dos capítulos iniciais de um romance que vai ser horrível de se ler.

Precisamos nos preocupar com os danos à sociedade, não apenas para o Sul Global, mas também para nossas próprias sociedades, porque, como eu disse antes, quando ocorre um derramamento de óleo, não é mais difícil regulamentarmos as empresas de petróleo. Mas agora o Facebook está fechando a porta para que possamos agir. Temos uma pequena janela de tempo para recuperar o controle das pessoas sobre a Inteligência Artificial. Temos que aproveitar esse momento.

Amy Goodman: O depoimento de Frances Haugen veio no momento em que o site The Verge relatou que o Facebook planeja mudar o nome de sua empresa esta semana para refletir sua transição de uma empresa de mídia social para uma empresa “metaversa”. O Facebook já anunciou planos de contratar milhares de engenheiros para trabalhar no metaverso na Europa. Nas próximas semanas, Haugen deve se reunir com autoridades da França, Alemanha e União Europeia.

Para saber mais, recebemos Ramesh Srinivasan, professor de estudos da informação na Universidade da Califórnia, Los Angeles, UCLA, onde também dirige o Laboratório de Culturas Digitais. Bem-vindo de volta ao Democracy Now! É ótimo tê-lo conosco, professor. Você pode falar sobre o significado do que foi divulgado até agora nos Facebook Papers?

Ramesh Srinivasan: É ótimo estar com você esta manhã. Acho que o que Frances Haugen fez foi denunciar a cumplicidade do Facebook e seu conhecimento interno de uma série de questões problemáticas com as quais eles têm estado envolvidos. Questões que muitos de nós apontávamos há vários anos.

O que o Facebook essencialmente fez, e ela expôs que eles estavam cientes, foi brincar com nossas emoções, brincar com nossas psicologias, brincar com nossas ansiedades. Essas são as matérias-primas que alimentam as tentativas do Facebook de ser um império digital. E, de maneira mais geral, este é um exemplo de como essa nova forma de capitalismo digital que acredito que o Facebook está abrindo caminho é aquela que joga com nossas emoções íntimas em todos os níveis.

Portanto, essas revelações são extremamente importantes. Este momento é muito, muito importante para definir a ação a ser tomada para controlar o Facebook, mas também, de forma mais geral, para entender que esta é a face geral das Grandes de Tecnologia [Big Tech] que estamos vendo cada vez mais exposta na nossa frente.

Juan González: E, professor, quando Frances Haugen fala sobre maior controle das pessoas sobre a Inteligência Artificial (IA), o que isso significa? Como seria isso, e especialmente em vista da outra questão que ela levantou, que é o impacto desproporcional dessas plataformas de mídia social no Sul Global, em países menos desenvolvidos, onde o Facebook está colocando muito menos recursos para moderar seu conteúdo?

Ramesh Srinivasan: Sim, ambas são questões extremamente importantes, Juan. Primeiro, ao ponto sobre o relacionamento das pessoas com a IA, tendemos a falar sobre IA atualmente como se fosse algum tipo de leviatã, mas o que estamos realmente falando quando estamos discutindo IA são os mecanismos pelos quais vários tipos de empresas de tecnologia - veja você, quais são as empresas mais ricas da história do mundo, todas as quais estão alavancando nossas vidas, nossas vidas públicas, nossas vidas como cidadãos, até mesmo a internet pela qual pagamos - é basicamente o mecanismo pelo qual eles estão constantemente nos vigiando, eles estão constantemente transacionando com nossa atenção e com nossos dados, e estão brincando com nossos sistemas psicológicos - nossa psicologia, na verdade - de várias maneiras.

Eles estão nos colocando no modo lutar ou fugir, no modo de reagir instintivamente, para acionar e ativar nossa atenção e excitação, para nos manter presos e, portanto, manipular nosso comportamento. Eles também estão nos colocando em grupos que são cada vez mais odiosos e divisivos. Vimos isso no dia 6 de janeiro, por exemplo. E o mecanismo, o meio pelo qual eles podem fazer isso é brincar de novo com nossas emoções, nos levando a esses grupos para que possamos reconhecer, falsamente, que não estamos sozinhos em ter pontos de vista particulares, que existem outros com pontos de vista mais radicais.

Agora se você olhar para aqueles mecanismos de manipulação, de manipulação comportamental, que são bastante comuns nas Grandes de Tecnologia, mas muito especificamente notórios no caso do Facebook, agora vamos olhar para isso quando se trata do Sul Global. O chamado Sul Global - estamos falando do continente africano, América do Sul, Sul da Ásia, Sudeste Asiático e assim por diante - representa a grande maioria dos usuários do Facebook, porque aqui estamos falando de usuários não apenas da tecnologia do Facebook , mas também plataformas como WhatsApp e Instagram.

Em muitos desses países, não há necessariamente uma mídia independente forte ou um tipo de imprensa jornalística forte para rebater ou mesmo fornecer algum tipo de ‘contravisibilidade’ a todo o ódio e mentiras que o Facebook prioriza, porque sabemos - e Frances Haugen confirmou isso - que o algoritmo do Facebook prioriza o conteúdo divisivo, polarizador e odioso por causa das previsões algorítmicas e computacionais de que irá capturar nossa atenção, bloqueará nosso sistema nervoso simpático.

Se olharmos para esses outros países no mundo, podemos ver de forma consistente, inclusive agora neste exato momento, quando se trata do povo Tigray da Etiópia, como o conteúdo odioso está sendo priorizado. Os algoritmos do Facebook tendem a funcionar muito bem com líderes demagogos que vomitam conteúdo de ódio. E eles tendem a refutar as vozes, como sempre foi o caso nos últimos anos, de minorias, de povos indígenas, de muçulmanos e assim por diante.

Portanto, isso tem efeitos na vida real em termos de fomentar a violência real contra as pessoas que são as mais vulneráveis em nosso mundo. E então, isso representa uma profunda - não negligência por parte do Facebook, mas eles reconhecem que podem se safar com isso. Simplesmente explore alguns moderadores de conteúdo, em lugares como as Filipinas, que estão enfrentando transtorno de estresse pós-traumático, e então, basicamente, deixe o jogo fluir nesses países do mundo, que representam a grande maioria, novamente, dos usuários do Facebook.

Juan González: E qual o impacto de tudo isso no processo democrático? Porque, na realidade, estamos enfrentando a possibilidade de que, por meio de algoritmos de empresas como o Facebook, estejamos realmente subvertendo o próprio processo de as pessoas serem capazes de escolher democraticamente a liderança e as políticas governamentais por serem inundadas por desinformação e ódio?

Ramesh Srinivasan: Isso é exatamente o que está acontecendo, porque todos nós - imagine bilhões de nós - e estamos falando de cerca de 3,5 bilhões de pessoas ao redor do mundo com algum acesso e envolvimento com as tecnologias do Facebook, reconhecendo que em muitas partes do o mundo Facebook é na verdade a internet e o WhatsApp é na verdade a rede de telefonia celular.

O que isso significa é que estamos nos voltando para o Facebook para ser nossa empresa de mídia, nossa porta de entrada para o mundo e nosso espaço de comunicação democrática, quando é tudo menos isso, porque imagine 3,5 bilhões de pessoas, todas com suas próprias telas, que os estão desbloqueando para um mundo que não é a esfera pública em nenhum sentido, mas na verdade é baseado na polarização, amplificação do ódio e, mais do que tudo, o ponto ideal, o petróleo da nova economia, que é o vício das pessoas e sua atenção.

Não há nada que chame mais nossa atenção do que ser colocado em uma posição de reagir instintivamente, ficar indignado, ficar com raiva, ficar meio agoniado. E isso é exatamente o que o Facebook está fazendo, porque todos nós estamos sendo apresentados a realidades completamente diferentes algoritmicamente em nossa tela, e essas realidades não são baseadas em algum senso aberto de diálogo ou compaixão ou tolerância, mas baseadas em extremismo algorítmico, baseado em todos esses dados que estão sendo coletados sobre nós e dos quais não temos qualquer pista.

Amy Goodman: Então, vamos falar sobre exemplos. Você está falando sobre a privatização dos bens comuns globais, porque é aqui que tantas pessoas, mesmo com a exclusão digital, se comunicam.

Os EUA são 9% da população global do Facebook, os consumidores globais, então 90% estão fora dos Estados Unidos. Mas 90% das proteções ou 90% dos recursos destinados a lidar com o ódio estão nos Estados Unidos, o Facebook está colocando nos Estados Unidos.

E mesmo aqui, veja o que acontece. O Facebook não criou uma armadilha para essa jovem mulher – ou que fez de conta de ser uma jovem no Facebook, que disse que apoiava Trump; imediatamente, e este é o Facebook, esta pessoa fictícia foi inundada com pedidos para entrar no QAnon, com ódio? E mesmo o que aconteceu em 6 de janeiro. E é aqui que o Facebook despeja todas suas chamadas proteções. Fale sobre a relação do Facebook com 6 de janeiro, e então fale globalmente, onde eles quase não estão investindo nada em moderação em outras línguas - por exemplo, no Vietnã.

Ramesh Srinivasan: Esse é um exemplo tão importante, Amy. Obrigado por trazer isso à tona. Basicamente, nossos mecanismos de envolvimento com o resto do mundo, mesmo em nosso país, como você salientou, mesmo aqui nos Estados Unidos, são todos baseados em nos guiar por essas tocas de coelho opacas e algorítmicas que nos levam cada vez mais a extremos, onde um conteúdo mais extremo é frequentemente sugerido para nós. Muitas vezes é, como você aludiu, por meio de um grupo do Facebook, certo?

Qualquer tipo de grupo que tenha um discurso de ódio associado a ele, que expresse indignação, que irá ativar nossas emoções - porque essas são as matérias-primas do capitalismo digital, nossas emoções e nossas ansiedades e nossos sentimentos - é exatamente para esse lugar que eles querem nos levar. Pois isso basicamente sugere a nós que não estamos sozinhos, que existem outras pessoas com pontos de vista não necessariamente iguais aos nosso, mas ainda mais amplificados, mais radicais. Então, isso acaba, como vimos, gerando muita violência e essa insurreição brutal.

O Facebook gosta de alegar que está apenas apoiando a liberdade de expressão, que há alguns malfeitores ganhando sua plataforma, quando na verdade sua plataforma é projetada para os mal-intencionados alavancarem sua posição, porque eles têm uma relação altamente simbiótica.

Como falamos no passado aqui no Democracy Now!, o ex-presidente era perfeitamente simbiótico em seu relacionamento com o Facebook. Eles eram muito, muito bons companheiros de cama. E vemos isso com demagogos em todo o mundo. Então, quando queremos falar sobre o Sul Global, podemos reconhecer que o Facebook pode basicamente dizer: “Ei, você sabe, estamos apenas - você sabe, temos diferentes idiomas em nossa plataforma. Claro, estamos conversando com algumas pessoas em países como a Etiópia. Conversamos com algumas pessoas em Mianmar, e não importa se elas foram basicamente responsáveis de várias maneiras por fomentar um genocídio contra os Rohingya. Sabe, estamos conversando com pessoas do governo Modi na Índia, que disse muitas coisas demagógicas contra as minorias muçulmanas”, e os Facebook Papers revelaram isso, que Frances Haugen também divulgou. Isso realmente funciona muito bem para eles.

Aqui nos Estados Unidos, onde temos uma mídia independente forte o suficiente, graças ao Democracy Now!, podemos desafiar o Facebook na esfera pública até certo ponto. Mas em outros países do mundo, isso não existe necessariamente na mesma medida. E o Facebook pode basicamente dizer: “Ei, podemos simplesmente influenciar a vida, o dia a dia, 24 horas por 7 dias nos 365 dias do ano, de bilhões de vocês e basicamente fazer o que quisermos”. E, sabe, eles realmente não precisam fazer muito a respeito. Eles não têm que realmente tomar medidas reais para resolver os danos que estão causando a muitas pessoas ao redor do mundo.

Juan González: E, professor, você mencionou a Índia, a segunda maior população do mundo. E os Facebook Papers revelaram que o Facebook tinha - alguns de seus gerentes fizeram um teste com um jovem adulto médio na Índia, que foi rapidamente inundado com propaganda nacionalista hindu e ódio antimuçulmano. E um dos funcionários que estava monitorando esta conta disse “Eu vi mais imagens de pessoas mortas nas últimas 3 semanas do que em toda a minha vida”. Você poderia falar sobre o impacto da falta de responsabilidade do Facebook em termos do que sua plataforma está fazendo em um país como a Índia?

Ramesh Srinivasan: Sabe, isso me atinge pessoalmente como uma pessoas de ascendência do sul da Índia. Eu também fiz parte de grupos de WhatsApp com vários amigos ou parentes na Índia que tendem a ser puxados para dentro… partindo de um estereótipo, por exemplo, de uma minoria muçulmana ou indígena e então se ampliando rapidamente. Eu acho que, em um país como a Índia, que é, em certo sentido, a maior democracia do mundo, vemos grandes ameaças a essa democracia alinhada com o governo nacionalista hindu e também com o crescimento do nacionalismo hindu, que, claro, como sempre foi o caso, difama e vai atrás da minoria muçulmana, o que é simplesmente absurdo e só faz meu estômago revirar.

É exatamente isso - o que você acabou de definir, Juan, é exatamente assim que o manual do Facebook funciona. Você criar uma conta Você meio que navega por aí. Quer dizer, não navegamos mais atualmente, mas você meio que faz amizade com várias pessoas, olha várias páginas e rapidamente recebe sugestões de conteúdo que o levam a esse lugares extremistas e difíceis de sair. Todos nós sabemos, infelizmente, quando vemos fotos de pessoas mortas, quando vemos acidentes de carro, quando vemos incêndios, prestamos atenção, porque ativa nosso sistema nervoso simpático. O Facebook reconhece que a maneira mais fácil de prender as pessoas, de forma a monetizá-las e manipulá-las, é alimentando-as com esse tipo de conteúdo. E é isso que temos visto na Índia.

Amy Goodman: Para concluir, nós temos apenas 30 segundos, Ramesh, eu queria perguntar a você sobre… você tem Haugen agora testemunhando perante o Parlamento britânico, passando pela Europa, muito significativo porque eles são muito mais propensos a regulamentar, poderiam ser um modelo para os Estados Unidos. Fale sobre o significado disso.

Ramesh Srinivasan: Acho fantástico que a União Europeia e o Reino Unido queiram tomar medidas agressivas. Aqui nos Estados Unidos, temos a Seção 230, que protege parte da responsabilidade de empresas como o Facebook de espalhar desinformação e ódio. Precisamos realmente mudar para pensar sobre uma estrutura espacial de direitos. Quais são os direitos que todos nós temos como pessoas, como cidadãos, como pessoas que fazem parte de uma democracia, em um mundo digital? Precisamos lidar com os algoritmos associados ao Facebook. Deve haver auditoria, supervisão e divulgação. E mais do que tudo, as pessoas precisam de sua privacidade protegida, porque sabemos, repetidamente, como discutimos, pessoas vulneráveis são prejudicadas. A violência real ocorre contra pessoas vulneráveis e polariza e fragmenta nossas sociedades, se não fizermos nada a respeito. Então, vamos mudar -

Amy Goodman: O Facebook deveria ser simplesmente fragmentado em várias empresas, como no passado, um século atrás, fizeram com as grandes empresas de petróleo?

Ramesh Srinivasan: Acho que podemos considerar que o Facebook também é um serviço público e devemos regulamentá-lo adequadamente. Mas, mais do que tudo, precisamos forçá-los a desistir do poder e colocá-los nas mãos de jornalistas independentes, pessoas que atuam no campo dos direitos humanos e, mais do que tudo, pessoas que tratem a todos nós, que eles estão usando, usando constantemente, como pessoas que têm soberania e direitos. E eles devem nos revelar o que sabem sobre nós. E, como padrão, devemos ser excluídos do capitalismo de vigilância.

Amy Goodman: Ramesh Srinivasan, queremos agradecê-lo por estar conosco, professor de estudos da informação da UCLA e diretor do Digital Cultures Lab, autor do livro Beyond the Valley: Como os inovadores em todo o mundo estão superando a desigualdade e criando as tecnologias do futuro.

*Publicado originalmente por Democracy Now! | Traduzido por César Locatelli



Conteúdo Relacionado