Teve início no dia 9 de fevereiro, no tribunal estadual de Los Angeles, o primeiro julgamento de uma série de centenas de ações movidas contra grandes plataformas digitais nos Estados Unidos. No centro do caso estão a Meta e o YouTube. Outras empresas, como TikTok e Snapchat, também foram citadas nas ações, mas firmaram acordos antes da fase de julgamento.
A autora do processo na corte da Califórnia é uma jovem de 20 anos identificada apenas como Kaley (ou pelas iniciais KGM) que move a ação ao lado da mãe. Elas acusam as empresas de terem criado intencionalmente plataformas com características viciantes, o que teria contribuído para o desenvolvimento de ansiedade, dismorfia corporal e pensamentos suicidas.
O caso de KGM, junto com o de outros dois demandantes, foi selecionado como julgamento-piloto, uma espécie de processo-teste que servirá de parâmetro para as demais ações semelhantes que ainda serão analisadas pela Justiça. A expectativa é que a decisão seja anunciada até o fim de março.
Durante a abertura do julgamento, o advogado da autora, Mark Lanier, comparou redes como YouTube e Instagram a cassinos digitais. Segundo ele, o recurso de rolagem infinita funcionaria como uma máquina caça-níqueis, estimulando sucessivas descargas de dopamina e incentivando o uso compulsivo.
Ao apresentar sua argumentação ao júri, Lanier afirmou que o caso envolve duas das corporações mais ricas do mundo que, segundo ele, teriam criado mecanismos capazes de gerar vício no cérebro de crianças. Também sustentou que, para uma jovem como Kaley, o gesto de deslizar a tela equivaleria à alavanca de uma máquina de apostas, mas na busca de estimulação mental contínua.
Já os advogados da Meta e do YouTube sustentam que os problemas de saúde mental alegados pela acusação estariam ligados a uma vida familiar difícil, e não ao funcionamento das plataformas.
Executivos das empresas começaram a prestar depoimento. O CEO da Meta, Mark Zuckerberg, foi ouvido no dia 18 de fevereiro. Também devem testemunhar nas próximas semanas o chefe do Instagram, Adam Mosseri, e o CEO do YouTube, Neal Mohan.
Os limites da responsabilidade das plataformas
O julgamento também coloca em debate a proteção conferida às empresas pela Primeira Emenda da Constituição dos Estados Unidos, que garante a liberdade de expressão e costuma ser invocada pelas plataformas para argumentar que decisões sobre moderação, recomendação e organização de conteúdos fazem parte de sua atividade editorial protegida constitucionalmente.
Além disso, o caso tensiona os limites da chamada Seção 230 da Lei de Decência nas Comunicações de 1996, dispositivo que, em linhas gerais, isenta empresas de tecnologia de responsabilidade pelo conteúdo publicado por usuários.
Para David Nemer, professor nos Departamentos de Estudos de Mídia e Antropologia da Universidade da Virgínia, o caráter histórico do caso está justamente nessa mudança de eixo. “Ele desloca o foco do conteúdo para o design”, afirma.
Segundo Nemer, durante anos as plataformas se protegeram sob o argumento de que não seriam responsáveis pelo que os usuários publicam, mas agora a acusação recai sobre “arquitetura, algoritmos, métricas de engajamento e recursos intencionalmente desenhados para maximizar retenção, inclusive de crianças”.
Na avaliação do pesquisador, pela primeira vez um júri popular poderá decidir se um modelo de negócios baseado na extração de atenção e dados pode gerar responsabilidade civil quando há dano psicológico, o que, segundo ele, atinge “o coração do capitalismo de plataforma”.
Especialistas também têm comparado as ações judiciais às disputas travadas contra as indústrias do tabaco e de opioides, sob o argumento de que as empresas teriam conhecimento dos riscos associados a seus produtos e, ainda assim, teriam ampliado estratégias para estimular o consumo.
Principais argumentos de acusação e defesa
Os depoimentos apresentados até agora evidenciam duas narrativas distintas sobre responsabilidade. De um lado, a acusação sustenta que a Meta falhou em impedir o acesso de crianças à plataforma e manteve mecanismos de engajamento potencialmente viciantes.
Durante o interrogatório, Lanier questionou Zuckerberg sobre o acesso de menores de 13 anos ao Instagram – idade mínima exigida para cadastro. O executivo reafirmou que crianças abaixo dessa faixa etária “não têm permissão” para usar a rede.
Lanier, no entanto, apresentou um documento interno de 2015 que estimava que mais de 4 milhões de usuários do Instagram tinham menos de 13 anos, o equivalente a 30% das crianças de 10 a 12 anos nos Estados Unidos.
Segundo o advogado, Kaley começou a usar a plataforma aos 9 anos. À época, o Instagram não exigia a data de nascimento no cadastro, bastando declarar ter mais de 13 anos. A exigência formal passou a valer para novos usuários apenas em dezembro de 2019 e foi estendida a contas antigas em agosto de 2021. Para a acusação, isso indica que a idade da jovem não foi efetivamente verificada ao ingressar na rede. Lanier também destacou que ela passava várias horas por dia no aplicativo, chegando a permanecer mais de 16 horas conectada em uma única ocasião.
A defesa afirma que houve avanços nas políticas de verificação etária e segurança. Zuckerberg reconheceu que o Instagram demorou a aprimorar a identificação de menores de 13 anos e disse que gostaria que as mudanças tivessem ocorrido antes.
Também afirmou que, em 2019, havia preocupações internas com privacidade na coleta de datas de nascimento, mas que a empresa adotou posteriormente a política considerada adequada. O executivo ainda negou ter enganado o Congresso sobre o design das plataformas e reiterou que a companhia não estabelece como meta maximizar o tempo de uso dos aplicativos.
Consequências se houver condenação
Dependendo do desfecho, o julgamento pode não apenas gerar custos bilionários em indenizações e honorários advocatícios, mas também redefinir os limites da responsabilidade das plataformas e pressionar mudanças estruturais em seu modelo de operação, especialmente porque o caso tramita na Califórnia, onde estão sediadas as maiores empresas de tecnologia.
Para o professor David Nemer, esse fator torna a ação particularmente estratégica: uma decisão desfavorável poderia gerar um “efeito dominó” dentro dos Estados Unidos e ainda servir de referência internacional para tribunais e legisladores.
Mais do que simbólico, o precedente poderia estabelecer que “design persuasivo e algoritmos de recomendação não são neutros” e, portanto, podem ser responsabilizados quando produzem danos previsíveis.
Na prática, isso pressionaria mudanças estruturais: restrições à rolagem infinita e ao autoplay para menores, maior transparência algorítmica, limites ao direcionamento ultrassegmentado de conteúdos e anúncios para crianças e revisão de métricas centradas exclusivamente em tempo de tela. Segundo Nemer, atingiria “o cerne do modelo financeiro das plataformas”, ao deslocar o incentivo que transforma atenção em ativo econômico.
Na mesma linha, o pesquisador do Instituto de Referência em Internet e Sociedade, Paulo Rená, avalia que uma condenação consolida a transição da lógica de “liberdade de inovação” para o “dever de cuidado”, com impacto direto sobre a economia da atenção.
As empresas poderiam ser forçadas a rever indicadores como engajamento e tempo de permanência, enquanto elementos de design passariam a ser vistos como parte do risco regulatório, exigindo interfaces mais protetivas e o desmonte de mecanismos que estimulam o uso compulsivo.
Se as plataformas vencerem
Uma vitória das empresas, por outro lado, reforçaria a blindagem jurídica da Seção 230, consolidando a ideia de que danos psicológicos são “externalidades sociais” e não responsabilidade corporativa, afirma Nemer. O recado político seria claro: mesmo diante de evidências internas sobre riscos, a lógica da liberdade de expressão e da autonomia do usuário prevalece sobre a proteção de menores.
Para Rená, esse cenário validaria o modelo atual e fortaleceria o argumento de que a responsabilidade é exclusiva das famílias. A arquitetura das plataformas continuaria sendo tratada como “caixa-preta”, imune à fiscalização, enquanto permaneceria com as vítimas o ônus de provar o dano e o nexo causal.
Isso poderia tensionar debates no Brasil, inclusive no Supremo Tribunal Federal, que discute a responsabilização das plataformas na revisão do artigo 19 do Marco Civil.
Se prevalecer a tese das empresas, conclui Rená, consolida-se a leitura de que o código está protegido pela liberdade de expressão “a despeito da possibilidade concreta de violação sistemática de direitos”.
O Brasil está preparado para lidar com casos semelhantes?
Para o pesquisador Paulo Rená, o Brasil dispõe hoje de um arcabouço jurídico “robusto” para proteger crianças e adolescentes no ambiente digital.
Ele cita o conjunto formado pelo Estatuto da Criança e do Adolescente, pela aprovação e futura implementação da Lei 15.211/2025 (ECA Digital), pelo Marco Civil da Internet, pela Lei Geral de Proteção de Dados, pelo Código de Defesa do Consumidor e pela própria Constituição, que estabelece uma rede de proteção ancorada nos princípios do melhor interesse da criança e da proteção integral. “Em tese, esse conjunto de normas é capaz de alcançar diferentes situações”, afirma.
Rená destaca ainda outro elemento recente: a decisão do Supremo Tribunal Federal sobre os limites do artigo 19 do Marco Civil da Internet. Embora ainda pendente de esclarecimentos, o tribunal sinalizou que as plataformas podem ter dever de cuidado proativo, especialmente diante de violações contra crianças e adolescentes. “Quando o risco é sistêmico, não dá para esperar apenas a remoção pontual de conteúdo”, resume o pesquisador.
Sendo um risco de natureza sistêmica, a omissão pode gerar responsabilidade civil. Nesse contexto, um design que induza à automutilação ou a distúrbios alimentares poderia ser enquadrado como falha sistêmica no cumprimento desse dever.
As lacunas, contudo, aparecem na prática. Segundo Rená, a legislação brasileira ainda opera majoritariamente na lógica do conteúdo, ou seja, do que é publicado e pode ser removido.
O debate mais recente é que desloca o foco para a arquitetura das plataformas: rolagem infinita, notificações intermitentes, sistemas de curtidas e recompensas que estimulam ciclos de uso compulsivo e exploram vulnerabilidades, especialmente entre crianças e adolescentes. “O problema não é só o post ilegal isolado, mas a forma como o sistema é construído para distribuir e amplificar esse material”, pontua.
Outro obstáculo é a produção de provas. Diferentemente dos Estados Unidos, o Brasil não dispõe dos mesmos mecanismos processuais que permitiram acesso a documentos internos de empresas em casos anteriores. Embora existam instrumentos legais e a Agência Nacional de Proteção de Dados (ANPD) tenha processo regulatório em curso, a transparência algorítmica ainda é limitada, o que dificulta demonstrar a correlação entre o design da plataforma e um dano concreto, como depressão ou transtornos alimentares.
Por fim, há um desafio institucional. Na avaliação de Rená, o país ainda não conta com uma autoridade com capacidade técnica consolidada para auditar códigos e fiscalizar de forma sistemática a chamada engenharia da atenção.
O que diz a psicologia sobre uso problemático e design persuasivo
Do ponto de vista clínico, é possível observar padrões que se assemelham a um vício comportamental, afirma a psicóloga Bárbara Alves, diretora do Centro de Inovação e Pesquisa do Instituto Vita Alere. “Há pessoas que tentam diminuir o uso e não conseguem, que permanecem horas nas redes com prejuízo no sono, nas relações e no rendimento escolar”, explica.
Ela pondera, no entanto, que dependência de redes sociais não é um diagnóstico formalmente reconhecido, e que reduzir o fenômeno a um “vício individual” pode simplificar excessivamente um problema mais amplo.
Segundo a especialista, o diferencial está no ambiente digital em si. “Não existe uma substância, como na dependência química, mas um sistema de reforço psicológico muito sofisticado”, diz. Notificações intermitentes, recompensas imprevisíveis, validação social e personalização algorítmica compõem um ecossistema desenhado para estimular repetição e permanência. Nesse contexto, falar apenas em falta de autocontrole desloca a atenção do que ela chama de “design intencionalmente voltado para capturar e reter atenção”.
A lógica é conhecida pela psicologia comportamental. “O reforço intermitente aumenta a repetição do comportamento porque você nunca sabe quando virá a próxima recompensa”, explica. O sistema de rolagem infinito elimina pontos naturais de parada, enquanto algoritmos ajustam o conteúdo aos interesses do usuário, elevando o tempo de exposição.
Ainda assim, Alves faz um alerta contra explicações simplistas baseadas apenas em dopamina. “Não somos escravos de neurotransmissores. Estamos falando de pertencimento, validação e identidade, especialmente na adolescência.”
A literatura científica, acrescenta, já identifica associações consistentes entre uso excessivo e alterações no sono, sintomas de ansiedade e depressão, além de maior insatisfação corporal entre adolescentes – sobretudo meninas.
A causalidade, porém, ainda é objeto de debate: “A ciência discute se as redes causam sofrimento ou se quem já está em sofrimento tende a usar mais.” Para ela, compreender o fenômeno exige olhar para além do indivíduo. “Somos sujeitos inseridos em ambientes estruturados para influenciar nosso comportamento. Entender isso amplia a responsabilidade do debate e desloca a discussão do indivíduo isolado para o sistema em que ele está inserido.”
