A Meta incentivou intencionalmente o uso de suas plataformas de mensagens por crianças e relutou em proteger os menores de idade, mesmo sabendo da grande quantidade de conteúdos impróprios circulando nas suas plataformas digitais. É o que indica documentos internos da big tech que foram abertos nesta quarta-feira (17) como parte de uma ação judicial contra a empresa movida pela Procuradoria-Geral do Novo México, nos Estados Unidos.
Como apontado pelo TechCrunch, os documentos revelam que, ao longo dos últimos anos, diversos funcionários da Meta chegaram a sinalizar preocupações sobre a exploração de crianças e adolescentes nas plataformas de mensagens privadas. A empresa, por sua vez, reconhecia os riscos potenciais que as mensagens diretas (DMs, como também são conhecidas) do Messenger e do Instagram traziam para os usuários menores de idade, mas não agia para criar barreiras de segurança porque isso não geraria lucro.
“Durante anos, os funcionários da Meta tentaram soar o alarme sobre como as decisões tomadas pelos executivos da Meta sujeitavam as crianças a solicitações perigosas e à exploração infantil”, declarou o procurador-geral do Novo México, Raúl Torrez, ao portal norte-americano. “Os executivos da Meta, incluindo Zuckerberg, tomaram consistentemente decisões que colocaram o crescimento à frente da segurança das crianças”.
Os documentos ainda mostram que, diante do maior interesse dos jovens em plataformas de vídeo como TikTok e Snapchat, a empresa de tecnologia tentou recrutar intencionalmente crianças e adolescentes para usarem suas redes sociais, sem se preocupar com os recursos de segurança. Em um e-mail interno de 2017, por exemplo, um executivo do Facebook desconsiderou a análise de conteúdos prejudiciais no Messenger com receio disso se tornar uma “desvantagem competitiva” em relação a outros aplicativos.
As informações presentes nos documentos já eram pontuadas pela ex-funcionária do Facebook, Frances Haugen, que desde 2021 afirmava que os executivos da big tech tinham ciência dos riscos e perigos relacionados aos produtos oferecidos, sabendo, inclusive, como tornar as ferramentas mais seguras para os usuários. Mas nada era feito, segundo ela, porque isso poderia atrapalhar os negócios da empresa.
No ano passado, o The Wall Street Journal mostrou como o Instagram estava sendo utilizado para criar uma rede de pedofilia, com compra de material sexual de menores. O jornal também evidenciou como as plataformas da Meta estavam tendo dificuldades para impedir que seus próprios mecanismos algorítmicos recomendassem conteúdos impróprios.
A ação contra a Meta foi aberta em dezembro do ano passado, alegando que plataformas como Instagram e Facebook se tornaram um mercado de “predadores em busca de crianças para atacar”. O processo também alega que a Meta não conseguiu remover casos de material com abuso sexual infantil, além de permitir que dezenas de adultos conseguissem encontrar e contactar crianças para enviar vídeos e imagens com conteúdo sexual.
De acordo com um porta-voz da Meta, a empresa está há uma década trabalhando nas questões relacionadas à segurança de crianças e adolescentes, inclusive com a contratação de profissionais específicos. “Queremos que os adolescentes tenham experiências on-line seguras e adequadas à idade, temos mais de 30 ferramentas para apoiar eles e seus pais. A denúncia descaracteriza nosso trabalho usando citações seletivas e documentos escolhidos a dedo”, afirmou.
Na semana passada, a Meta chegou a anunciar novas medidas de expansão e atualização para proteção e segurança de crianças e adolescentes. De acordo com a empresa, alguns tipos de conteúdos, como automutilação e suicídio, ficarão ocultos para esses jovens e o controle sobre o que aparece no campo de pesquisa será mais rigoroso. As duas redes também vão incentivar a atualização das configurações de privacidade, de modo que os dados dos adolescentes fiquem menos expostos.