Em seu depoimento aos membros do Parlamento Europeu sobre os impactos negativos dos produtos das grandes empresas de tecnologia nos usuários, a ex-gerente de Produto do Facebook, Frances Haugen, fala sobre o que a motivou a fazer a delação, sobre as escolhas do Facebook pelo lucro em detrimento de segurança e da urgência em se criar legislações que tornem as operações das plataformas mais transparentes e seguras.
Leia o depoimento completo:
Caros membros do Parlamento Europeu, agradeço a oportunidade de comparecer perante a todos e por seu interesse em confrontar uma das ameaças mais urgentes aos cidadãos da União Europeia. Me chamo Frances Haugen e sou ex-funcionária do Facebook. Ingressei na empresa por acreditar que ela tem o potencial de trazer à tona o melhor de nós. Hoje, porém, estou aqui por acreditar que os produtos desenvolvidos por ela prejudicam a infância, aumentam a segregação, enfraquecem as democracias e muitas outras coisas.
As lideranças da empresa têm conhecimento de ferramentas capazes de aumentar a segurança do Facebook e do Instagram, mas não estão dispostas a fazer as mudanças necessárias porque colocam o lucro exorbitante à frente das pessoas. As consequências são graves. Hoje, a plataforma do Facebook prejudica a saúde e a segurança de nossas comunidades, além de ameaçar a integridade das democracias.
Nos colocarmos em posição de enfrentar tais desafios não será fácil, mas as democracias devem agir como sempre agiram. Quando práticas comerciais entram em conflito com os interesses do indivíduo e da sociedade como um todo, as democracias devem intervir no sentido de criar novas leis. Sou grata a União Europeia por lidar com este assunto de forma muito séria. A Lei dos Serviços Digitais que se apresenta a este Parlamento tem o potencial para se tornar um padrão-ouro em escala global. Ela pode vir a inspirar outras nações, inclusive a minha, a buscar novas diretrizes que salvaguardem a democracia. Mas é necessário que esta lei seja robusta e que sua aplicação seja firme. Caso contrário, perderemos uma oportunidade única nesta geração de alinhar os futuros da tecnologia e da democracia.
Motivo que provocou a delação
A explicação e a análise que ofereço dos documentos apresentados em minha delação são baseados em um período de tempo maior do que aquele em que trabalhei no Facebook. Atuo como gerente de produto em grandes empresas de tecnologia desde os meus 26 anos de idade, entre elas o Google, o Pinterest, o Yelp, e o Facebook. Meu trabalho se concentra majoritariamente em produtos baseados em algoritmo, como o Google Plus Search, e sistemas de recomendação, como aquele que alimenta o feed de notícias do Facebook. Minha experiência em quatro plataformas que atuam com redes sociais diferentes me permitiu comparar suas abordagens, analisar seus contrastes, bem como suas formas de lidar com diferentes desafios.
As escolhas que têm sido feitas pelas lideranças do Facebook representam um grande problema para a infância, para a segurança pública e para a democracia. Por isso decidi me posicionar. E, sejamos honestos, as coisas não deveriam ser assim. Estamos aqui hoje por causa de escolhas feitas deliberadamente pela empresa a qual me refiro. Ingressei no time do Facebook em 2019, após um conhecido meu ter se alinhado a discursos radicais através de conversas que teve pela rede social. Naquele momento, me senti na obrigação de assumir um papel decisivo na criação de uma plataforma melhor e menos tóxica. Durante meu período trabalhando na empresa, primeiro como principal gerente de produto na área de desinformação civil e, posteriormente, na contraespionagem, observei que, por várias vezes, os lucros da empresa entravam em conflito com a nossa segurança. De forma consistente, a empresa resolvia esse conflito em favor do lucro. O resultado é um sistema que amplifica a segregação, o extremismo e a polarização, aspectos que enfraquecem sociedades em todo o planeta.
´O custo do lucro foi a nossa segurança´
Em alguns casos, conversas perigosas entre os usuários provocaram atos reais de violência que prejudicaram, e às vezes até mataram, pessoas. Em outros casos, essa engrenagem otimizada para o lucro gera comportamentos autodestrutivos e ódio do indivíduo a si mesmo, especialmente entre grupos vulneráveis, como meninas adolescentes. São problemas inúmeras vezes confirmados pela própria pesquisa interna da empresa. Não se trata simplesmente de alguns usuários instáveis e com raiva.
O custo do lucro que transformou o Facebook em uma empresa de um trilhão de dólares foi a nossa segurança e a de nossas crianças. E isso é inaceitável. Creio que minha atitude de falar foi correta e necessária para o bem comum. Mas também sei que a empresa possui infinitos recursos que poderia usar para me destruir. Ainda assim segui em frente, porque me deparei com uma verdade assustadora.
A resposta correta a essa emergência é criar novas regras e padrões. A Lei de Serviços Digitais tem um imenso potencial. Sua intenção não é acabar com o problema regulamentando o conteúdo, mas, sim, abordando-o de forma neutra e indo em busca de riscos sistêmicos e falhas no modelo de negócios. Uma estratégia que endosso veementemente. Há muito mais a ser dito sobre essa legislação, mas gostaria de destacar três pontos que, de acordo com a minha experiência, são de extrema importância.
Falta de transparência
Quase ninguém fora do Facebook sabe o que acontece dentro do Facebook. A empresa não revela informações vitais ao público, ao governo dos Estados Unidos, aos acionistas e aos governos de outras nações. Os documentos apresentados por mim provam que o Facebook repetidamente nos forneceu resultados equivocados de suas pesquisas internas sobre segurança de uso infantil, sobre seu papel em disseminar discursos de ódio e polarização, e muito mais.
Em primeiro lugar, avaliações de risco e acesso a dados confidenciais. Para onde esses dados são transmitidos. Segundo, diretrizes abrangentes e criação de padrões para o modelo de negócios. Terceiro, o risco das brechas e isenções. Falarei sobre um de cada vez.
No âmago dos problemas que enfrentamos atualmente está o fato de quem ninguém entende melhor as escolhas destrutivas do Facebook do que o próprio Faceebok. E isso porque apenas o Facebook tem permissão para olhar o que há embaixo do tapete. A meu ver, a empresa não pode continuar sendo juiz, júri, promotor e testemunha ao mesmo tempo. Um ponto de partida crucial, portanto, para uma regulamentação eficiente, é a transparência. Acesso total aos dados, sem supervisão da empresa. Precisamos ter especialistas analisando esses problemas e eles devem ter acesso a toda informação necessária para tal. Trata-se de um ponto fundamental para obter resultados corretos, já que o diabo mora nos detalhes.
Por exemplo, se as empresas estiverem totalmente isentas de serem transparentes em relação a assuntos classificados como segredo comercial, elas dirão que tudo é segredo comercial. O Facebook seguiria operando atrás de portas fechadas, fazendo escolhas que vão contra o bem comum. Os pesquisadores devem, sim, respeitar segredos comerciais, uma vez que tenham acesso a suas informações de licenciamento. Segredos comerciais não podem, nem devem, ser uma desculpa para as empresas negarem acesso a seus dados. Ou seja, ter acesso a eles é o ponto de partida que permitirá a pesquisadores e membros de órgãos reguladores avaliar riscos e danos em toda a mecânica da rede social: criação de perfis, público alvo e engajamento baseado em rankings.
Propagação retumbante de desinformação
Os dados que apresentei a Comissão de Valores Mobiliários dos Estados Unidos evidenciam que o engajamento baseado em rankings é uma das principais causas dos maiores riscos que as redes sociais oferecem à sociedade. Trata-se um problema em nível sistêmico e é por isso que novas diretrizes não devem se limitar a restringir conteúdos ilegais; elas também devem observar conteúdos que violem os termos de uso da plataforma.
Usando ferramentas de conteúdo neutro, a Data Science Academy deveria obrigar as plataformas a se responsabilizarem por riscos que vão além da disseminação de conteúdo ilegal, como a manipulação de processos eleitorais, a propagação retumbante de desinformação e os riscos à saúde mental dos adolescentes.
O cerne da Lei de Serviços Digitais reside na força dos artigos 26 e 27, o que me leva ao terceiro ponto a destacar. Com grande interesse, li sobre as tentativas de tornar o conteúdo de notícias isento às regras da Comissão de Valores Mobiliários. Mas, se a proposta é criar regras para um conteúdo neutro, o conteúdo deve ser verdadeiramente neutro. Nada deve ter destaque, nada deve ser isento. Permitam-me ser bastante clara: é manipulando o sistema que todas as campanhas de desinformação surgem nos feeds de notícia. Se a Digital Science Academy (DSA) disser que é ilegal as empresas resolverem essas questões, correremos o risco de diminuir a eficácia da lei. Na verdade, podemos chegar a um patamar pior do que o atual.
Regras, supervisão e fiscalização dos governos
Se a DSA agir de forma correta para uma população tão étnica e linguisticamente diversificada quanto os 450 milhões de cidadãos da União Europeia, poderemos ter uma virada de jogo em escala global. Um movimento como esse poderia obrigar as plataformas a “precificar” o risco de suas operações. Desse modo, as decisões acerca de quais produtos desenvolver, e como, não seria mais baseada puramente em maximização de lucros. Poderemos estabelecer regras e diretrizes que se preocupem com os riscos e, ao mesmo tempo, resguardem a liberdade de expressão. E poderemos mostrar ao mundo como transparência, supervisão e fiscalização devem funcionar.
Não devemos nos esquecer que já estivemos nesta encruzilhada. Quando as empresas de tabaco alegaram que cigarros com filtro eram mais seguros para o consumidor, os cientistas, de forma independente, puderam invalidar esse argumento de venda por ser nada além disso, um argumento de venda. A ciência confirmou que o cigarro, ainda assim, representava um risco grave à saúde. Que os cigarros com filtro eram, na verdade, ainda mais tóxicos do que os sem filtro. Hoje, no entanto, não podemos fazer esse tipo de análise em relação ao Facebok. Simplesmente temos de confiar que o que a empresa nos diz é verdade, mesmo que inúmeras vezes ela tenha nos provado que não merecem nossa fé irrestrita. Confiança é algo que se conquista, não que se dá como certo.
Os responsáveis pela regulamentação do Facebook enxergam alguns desses problemas, mas seguem alheios às suas causas e, desse modo, incapazes de desenvolver soluções específicas. Se eles sequer podem acessar os dados sobre segurança de produto, que dirá auditá-los. Como o público pode avaliar se o Facebook está resolvendo conflitos de interesse em favor do bem comum, se a ele é negada informação sobre como ele realmente opera? Isso precisa mudar.
Caros membros do Parlamento, muitas coisas estão em jogo. Temos aqui a oportunidade única de criar novas diretrizes para o mundo digital. Redes sociais mais seguras e agradáveis são possíveis. Se pudermos tirar apenas duas coisas disso tudo, seriam elas: em primeiro lugar, todos os dias o Facebook prioriza o lucro em vez da segurança e, sem ações assertivas da lei, isso continuará acontecendo. Segundo, o Facebook desenvolveu tal capacidade de ocultar o real comportamento da plataforma que os níveis de segurança decaíram a um nível inaceitável. Se for permitido que a empresa continue operando de portas fechadas, o resultado será uma sucessão de tragédias.
Venho a público mesmo correndo grande risco por acreditar que ainda temos tempo para agir e que o tempo de agir é agora. Muito obrigada.