Em setembro do ano passado o império do Facebook – que logo mudou seu nome para Meta – começou a ser abalado. Uma série de documentos vazados por uma ex-funcionária da empresa passou a ser publicado pelo Wall Street Journal e revelou o que muitos pesquisadores da área já suspeitavam: o Facebook prioriza o lucro em vez da segurança dos usuários. A informante que jogou luz sobre as informações chocantes é Frances Haugen e ela estará no Brasil nesta semana.
Frances Haugen vem ao Brasil dialogar com a sociedade civil e agentes interessados no debate sobre a transparência das plataformas digitais e o impacto da desinformação na sociedade. O cerne dos diálogos parte da experiência na atuação com os algoritmos e nas informações vazadas por ela.
O vazamento de documentos deu início ao Facebook Papers e vários veículos de comunicação ao redor do mundo se debruçaram sobre as milhares de informações disponíveis em atas, memorandos e pesquisas internas que revelaram dados de quão nociva a rede pode ser e de como o Facebook estava ciente disso, mas não agiu. As denúncias e achados versam sobre diversos temas, confira:
Desinformação e discurso de ódio
Documentos mostram que o Facebook prioriza conteúdos que viralizam e geram engajamento, independentemente do conteúdo deles. Um dos relatórios encontrados aponta que demorou apenas 5 dias para que o algoritmo de recomendação indicasse um conteúdo do QAnon, grupo que dissemina teorias da conspiração e desinformação, para um perfil fictício criado para a pesquisa.
O próprio relatório, indicou o Intercept Brasil, conclui sobre o engajamento do conteúdo: “A interatividade, conteúdo que prende a atenção e a habilidade de formar grupos dedicados em algumas redes sociais facilitam o compartilhamento e a manutenção de teorias da conspiração”.
Ainda sobre a questão de priorização de conteúdos, o The Washington Post indicou que a plataforma deu um peso cinco vezes maior a reações de raiva num post que as tradicionais curtidas. Isso porque eram conteúdos que deixavam o usuário mais engajado, mesmo que fosse um conteúdo tóxico ou desinformativo, como o relatório mostrou. O jornal indica que a plataforma só mudou esse peso três anos depois.
Outras possibilidades para diminuir o engajamento de conteúdo tóxico também foram apresentadas para o Facebook, que não tomou medidas em relação a isso. Uma reportagem do Núcleo mostra como simples mudanças no design da interface poderiam contribuir para um espaço mais saudável, uma delas era remover o botão de compartilhar ao fim dos vídeos, algo que iria diminuir o compartilhamento de vídeos de baixa integridade.
Outro achado dos documentos mostra que, no Brasil, conteúdo sobre política é a maior fonte de desinformação. Apesar desse alerta, o relatório pedia que as equipes do grupo Meta continuassem concentradas no conteúdo enganoso relacionado à política que circula em mercados de língua inglesa, como os EUA e Reino Unido, com uma abordagem mais frouxa para os demais países. Além disso, outros documentos mostram que conteúdo tóxico tem maior alcance no país e que o país é mais sensível a conteúdos violentos.
No entanto, apesar dos alertas e de ser um dos maiores mercados do Facebook, o Brasil não é uma prioridade em termos de moderação de conteúdo, assim como o resto do mundo que não fala inglês. Isso porque documentos mostram que, do valor reservado para ações de combate à desinformação, 84% vão para os Estados Unidos, enquanto 16% são destinados “ao resto do mundo”. A própria Frances Haugen colocou, em entrevista à Folha de S. Paulo, que ela desconfia que “o português do Brasil não seja bem amparado pelos sistemas de segurança”.
Moderação de discursos de ódio também são um problema no Facebook. Documentos analisados pelo Intercept mostram que o Facebook remove apenas de 3% a 5% dos conteúdos de ódio e 0,6% dos de violência. O relatório interno indica ainda que, para aumentar mais que 10-20% é necessária uma grande mudança na estratégia.
Racismo
Documentos analisados pelo Núcleo e Folha de S. Paulo mostram que a empresa não estava agindo para deter o racismo na rede ou promover ações de igualdade. O Facebook alegava não criar ações específicas por não conseguir identificar a raça dos usuários, por uma questão de privacidade. No entanto, pesquisas mostram que isso é possível de ser realizado a partir de dados secundários. A falta de dados, no entanto, era colocada como um impeditivo para algo que começou a ser suscitado a partir de eventos externos, como o assassinato de George Floyd.
Jovens e adolescentes
Um dos principais pontos encontrados nos arquivos diz respeito ao uso das redes por jovens e adolescentes. Uma pesquisa interna da plataforma revelou que o uso do Instagram piorava pensamentos suicidas e de automutilação para 13,5% das meninas e piorava os transtornos alimentares, como anorexia e bulimia, para 17% delas. O relatório também apontou que o uso da plataforma piorava problemas de autoestima para uma a cada três jovens.
Apesar dos dados, o Facebook investia em atrair cada vez mais o público jovem além da ferramenta Instagram Kids, a qual foi pausada logo após os vazamentos. O intuito da plataforma é competir com apps como TikTok e Snapchat. De acordo com a reportagem do Wall Street Journal, esse é um público valioso, mas inexplorado.
Afinal, quem é Frances Haugen?
Frances Haugen é uma engenheira de computação especializada em gerenciamento de produtos algoritmos. Nesse segmento, trabalhou em empresas como Google, Pinterest, Yelp e Facebook. Em 2019, foi contratada pelo Facebook para atuar na equipe de integridade cívica, que lidava com questões relacionadas à democracia e desinformação. Posteriormente, também trabalhou em contraespionagem na empresa.
O interesse pela temática se deu, entre outros fatores, ao ver um amigo próximo ser influenciado por teorias da conspiração nas redes sociais. Haugen disse em entrevistas o desejo de mudar essa realidade e evitar que acontecesse com outras pessoas.
Ao atuar no Facebook, no entanto, a engenheira percebeu que a empresa realizava escolhas priorizando o lucro e colocando a vida de pessoas em risco. Assim, recolheu documentos que comprovavam seus achados e se desligou da companhia em maio de 2021. A partir disso, divulgou, de forma anônima, documentos para o Wall Street Journal, o que ficou conhecido como “The Facebook Files” ou “Facebook Papers”.
Haugen saiu do anonimato no dia 3 de outubro em uma entrevista ao 60 minutes e, desde então, testemunhou no Congresso dos Estados Unidos, no Reino Unido e nos Parlamentos da União Europeia, no Senado e na Assembleia Nacional da França. Além disso, se envolveu com legisladores internacionalmente sobre a melhor forma de lidar com as externalidades negativas das plataformas e hoje se intitula defensora da transparência das mídias sociais.