Quem esteve nas redes sociais nas duas últimas semanas provavelmente se deparou com imagens, vídeos ou memes sobre a chamada “Revolta do Roblox”. O movimento chamou atenção ao mostrar usuários do jogo exibindo avatares com “cartazes” e ocupando espaços virtuais que simulam ruas e praças, em protesto contra a restrição do chat para crianças e adolescentes.
A medida que motivou os protestos foi implementada globalmente pela empresa em 7 de janeiro, após testes iniciais realizados em alguns países desde dezembro de 2025. O anúncio oficial das mudanças ocorreu ainda em novembro do ano passado, quando a plataforma informou que passaria a exigir verificação facial de idade para liberar o acesso ao chat. Segundo a empresa, a iniciativa busca apoiar “o chat baseado em idade e limitar a comunicação entre menores e adultos”, como parte de uma estratégia para reforçar a segurança na plataforma.
Quais são as novas regras do Rlobox?
No Roblox, usuários podem criar contas a partir dos 5 anos de idade. Com as novas regras, o acesso ao chat passou a seguir critérios mais restritivos por faixa etária. Crianças menores de 9 anos só podem usar recursos de conversa mediante consentimento dos pais. Já usuários com idade verificada a partir dos 13 anos passam a ter mais liberdade para se comunicar por meio do recurso chamado Conexões de Confiança, voltado para interação com pessoas conhecidas fora do próprio grupo etário.
No novo modelo, cada usuário pode se comunicar apenas com pessoas da sua própria faixa etária e dos grupos imediatamente acima ou abaixo. Por exemplo, crianças de 9 a 12 anos podem conversar com usuários menores de 9 e com adolescentes de 13 a 15 anos, mas não com adultos.
Para Bianca Orrico, psicóloga do programa de Educação da SaferNet Brasil, a mobilização revela tanto o protagonismo digital de crianças e adolescentes quanto riscos associados ao movimento. “Essas reações mostram a importância de enxergar crianças como sujeitos ativos e competentes, mas também geram preocupação sobre adultos mal-intencionados que podem estar incentivando esse engajamento para continuar tendo acesso a crianças e adolescentes”, afirma.
No Brasil, além da reação dos usuários, a atualização também reacendeu o debate sobre a eficácia e a confiabilidade das tecnologias de verificação etária. Vídeos que circularam nas redes sociais mostraram crianças burlando o sistema de reconhecimento facial ao desenhar barba e bigode no rosto, por exemplo.
A fragilidade do mecanismo foi posteriormente confirmada por reportagem da Folha de S.Paulo, que identificou brechas na ferramenta do Roblox capazes de permitir que adultos se passem por crianças e vice-versa, colocando em xeque a robustez da solução adotada pela empresa.
O tema da verificação etária ganhou ainda mais visibilidade na última semana após a Meta anunciar o bloqueio de mais de 500 mil contas de adolescentes na Austrália. No país, entrou em vigor em dezembro uma legislação que impõe restrições mais rígidas ao acesso de jovens às plataformas digitais.
Restringir o chat é a melhor solução?
Especialistas ouvidas pela reportagem avaliam que a restrição do chat pode reduzir riscos imediatos, apesar do protesto das crianças. Para Emanuella Halfeld, analista de Relações Governamentais do Instituto Alana, a medida tem impacto direto na diminuição de situações de abuso e exposição indevida. “A restrição do chat pode ser eficaz para reduzir riscos como assédio, grooming e contato com desconhecidos, especialmente para crianças mais novas”, afirma.
Segundo ela, testes realizados pelo instituto na plataforma antes das atualizações de verificação etária mostraram a fragilidade do modelo anterior. “Ao simular uma conta de uma criança de 8 anos, ficou evidente como era fácil interagir em chats abertos com pessoas sem qualquer verificação de idade”, relata. Os experimentos foram feitos inicialmente para estudos internos e agora estão sendo usados como base para a produção de um artigo comparativo sobre o cenário antes e depois das mudanças, ainda sem previsão de publicação pelo Instituto Alana.
Na avaliação de Halfeld, o principal potencial da iniciativa está na criação de ambientes digitais adequados a diferentes faixas etárias, um dos eixos centrais do chamado ECA Digital. “A ideia de adaptar os ambientes ao estágio de desenvolvimento das crianças é muito poderosa”, diz. Ela ressalta, porém, que isso exige responsabilidade ativa das empresas. “Para que o uso seja seguro e responsável, as plataformas precisam agir.”
O que é o ECA Digital?
O termo “ECA Digital” se refere à Lei nº 15.211/2025, marco legal brasileiro para a proteção de menores em ambientes online. A norma estabelece diretrizes inéditas para prevenção de abusos digitais, responsabilização das plataformas e garantia de segurança e transparência em redes sociais, jogos e aplicativos. Foi sancionada pela Presidência da República em setembro de 2025 e passa a entrar em vigor em março de 2026.
Bianca Orrico destaca, em especial, os desafios da comunicação em tempo real por voz. “O chat ao vivo é um espaço difícil de moderar e onde ocorrem abordagens diretas de adultos usando estratégias de manipulação”, explica. Do ponto de vista da proteção, segundo Orrico, o objetivo central é interromper esse tipo de contato. “A intenção é impedir que crianças tenham interação com adultos desconhecidos e mal-intencionados.”
Controvérsias
O que as especialistas chamam atenção é para os desafios técnicos, jurídicos e de proteção de dados associados a adoção de sistemas de verificação. “Estamos falando de imagens de rosto e informações biométricas de crianças e adolescentes, que exigem um nível muito alto de proteção e transparência”, afirma Orrico. Segundo ela, qualquer falha pode gerar impactos graves. “Há riscos de uso indevido e até vazamento desses dados.”
Para Halfeld “a verificação precisa ser feita de maneira responsável e com responsabilidade compartilhada, como prevê o ECA Digital”. Aponta ainda que o debate abre espaço para aprimoramentos. “Essas falhas também nos mostram oportunidades de construir soluções que aliem proteção, privacidade e garantia da finalidade da medida”, avalia.
As duas especialistas convergem ao apontar que soluções exclusivamente técnicas são insuficientes. “Nenhum sistema é perfeito”, resume Orrico. Para ela, mecanismos automatizados não substituem políticas mais amplas de proteção. “Eles não eliminam a necessidade de moderação humana, educação digital, supervisão adulta e compromisso coletivo das plataformas.”
O que o ECA Digital diz sobre verificação etária?
- Artigo 9º — Obriga plataformas a adotarem mecanismos confiáveis de verificação de idade para impedir o acesso de crianças e adolescentes a conteúdos e serviços impróprios ou proibidos por lei, vedando a autodeclaração como forma válida de comprovação etária.
- Artigo 12 — Determina que lojas de aplicativos e sistemas operacionais implementem medidas proporcionais, auditáveis e seguras de aferição de idade, com minimização de dados, possibilidade de supervisão parental e compartilhamento restrito de sinal etário apenas para fins de proteção.
Modelo por risco, não padrão único
Às vésperas da entrada em vigor do ECA Digital, o Comitê Gestor da Internet no Brasil (CGI.br) defende que a verificação etária não seja implementada a partir de um modelo único e padronizado. Segundo Kelli Angelini Neves, assessora em políticas públicas do NIC.br/CGI.br e especialista em direito digital, a recomendação é adotar uma abordagem graduada e orientada por risco.
“Não existe solução única. A proposta é seguir uma lógica de proporcionalidade, com mecanismos calibrados por contexto e funcionalidade”, afirma. Na prática, isso significa aplicar ferramentas mais robustas em ambientes considerados de alto risco e soluções menos intrusivas em outros cenários. “O objetivo é evitar transformar a navegação em um processo contínuo de checagem”, explica.
Na contribuição enviada pelo CGI.br à consulta pública do Ministério da Justiça, o comitê também elencou princípios considerados indispensáveis para que a aferição de idade seja eficaz e, ao mesmo tempo, compatível com direitos fundamentais. Entre eles estão:
- Proporcionalidade e necessidade: as soluções de aferição etária devem ser aplicadas conforme o grau de risco da atividade, evitando exigências excessivas para ambientes de baixo risco, como plataformas educacionais e de serviços públicos.
- Privacidade e proteção de dados: a implementação deve seguir rigorosamente os princípios da Lei Geral de Proteção de Dados (LGPD), com minimização da coleta e vedação de uso secundário das informações.
- Inclusão e não discriminação: os mecanismos devem ser acessíveis a todos, prevendo alternativas para crianças e adolescentes em situação de vulnerabilidade, que não possuem documentos ou dispositivos próprios.
- Segurança técnica: as ferramentas devem adotar elevados padrões de segurança para prevenir fraudes, vazamentos e outros incidentes, contando com a expertise de órgãos como o CERT.br/NIC.br.
- Não fragmentação: as regras devem preservar o caráter global e aberto da Internet, evitando a criação de “muros” ou sistemas que isolem o usuário brasileiro da rede mundial.
- Interoperabilidade e padrões abertos: a regulamentação deve incentivar o uso de padrões técnicos abertos e interoperáveis para evitar a dependência de tecnologias proprietárias e a concentração de mercado.
- Transparência e auditabilidade: os sistemas de aferição devem ser transparentes e passíveis de auditoria externa, garantindo a responsabilidade e prestação de contas por ações e resultados, envolvendo transparência, comprometimento e tomada de decisões e o direito de contestação por parte dos usuários.
Após a sanção do ECA Digital, ainda no ano passado, a Coalizão Direitos na Rede (CDR) também publicou uma nota alertando para os riscos de uma implementação inadequada da verificação etária. Para a entidade, o mecanismo deve funcionar como validação de faixa etária e não como identificação nominal de usuários, evitando práticas como coleta de documentos, biometria facial ou dados financeiros.
A coalizão defende modelos baseados em prova criptográfica de atributo, com soluções públicas, abertas e auditáveis, além da descentralização do armazenamento de dados para impedir concentração de poder em grandes empresas de tecnologia. A CDR também reforça a necessidade de participação social contínua na regulamentação, alertando que soluções apressadas e centradas em reconhecimento facial, como já visto em experiências internacionais, tendem a ser facilmente burladas e ampliam os riscos de vigilância e violação de direitos.
Leia também >> O que é preciso para que a nova lei de proteção digital a crianças e adolescentes gere o impacto necessário?
Educação midiática deve caminhar junto com adoção das medidas
Estratégias de mitigação de riscos tendem a ser mais eficazes quando vêm acompanhadas de ações contínuas de educação digital e comunicação transparente com os usuários, é o que revelam as especialistas consultadas.
No caso do Roblox, analisado nesta matéria, já era esperado algum nível de resistência, avalia Emanuella Halfeld. “Medidas de proteção costumam gerar reação quando alteram práticas já naturalizadas, por isso é fundamental explicar o porquê. Elas não podem ser percebidas como punição ou censura”, explica.
Halfeld destaca que a comunicação precisa ser adequada à idade e orientada por direitos. “As pessoas precisam entender quais riscos estão sendo prevenidos e quais direitos estão sendo protegidos”, afirma. Outro ponto central, segundo a especialista, é a participação social. “Ouvir usuários, especialistas, crianças, adolescentes e famílias qualifica as decisões e reduz a sensação de arbitrariedade.”
Ela também ressalta a necessidade de calibrar os mecanismos de proteção. “Eles precisam ser eficazes, mas não invasivos”, diz. Para Halfeld, a verificação etária deve ser compreendida como um acordo coletivo. “Não é um controle moral, é um pacto social para proteger direitos.”
Na avaliação de Bianca Orrico, a ausência de uma cultura consolidada de educação digital amplia as resistências. “Decisões de segurança podem ser vistas apenas como controle, e não como proteção”, afirma. Por isso, ela defende uma atuação articulada. “É essencial o envolvimento da escola, das famílias, das plataformas e do Estado para formar cidadãos digitais mais críticos e conscientes.”
