O Brasil deu um passo histórico na proteção de crianças e adolescentes no ambiente digital. O chamado ECA Digital estabelece, pela primeira vez e de forma abrangente, que empresas de tecnologia e o Estado assumam responsabilidades concretas sobre a segurança e o bem-estar do público infanto-juvenil em plataformas digitais. A lei parte de uma premissa fundamental: todo produto ou serviço de tecnologia da informação direcionado a crianças e adolescentes no Brasil, ou de acesso provável por esse público, deve estar sujeito a obrigações claras de proteção, sem que isso exima famílias e responsáveis legais de suas próprias responsabilidades em caso de negligência ou dano.
Trata-se de um marco jurídico essencial para fazer valer os direitos já consagrados pela Constituição Federal, pelo ECA “analógico” e por outras normas de proteção à infância no Brasil e no mundo, agora atualizados para a realidade do século XXI. O texto atualiza o dever constitucional de proteção integral, estendendo-o ao universo digital e, em especial, às empresas de tecnologia – que até então operavam sem ter assumido esse dever de cuidado de forma sistemática e vinculante. A legislação reconhece que o ambiente digital não é neutro: ele é projetado, moldado por algoritmos e decisões corporativas que afetam diretamente o desenvolvimento físico, emocional e social de milhões de crianças e adolescentes brasileiros, todos os dias.
A estrutura da lei se organiza em torno de cinco grandes obrigações. O primeiro pilar determina que as empresas deixem de adotar, por padrão, elementos de design que possam induzir ao vício ou causar danos à saúde física e mental dos usuários crianças e adolescentes, os chamados padrões manipulativos, como rolagem infinita, notificações constantes e sistemas de recompensa intermitente, amplamente utilizados por redes sociais e aplicativos de entretenimento.
O segundo pilar obriga as plataformas a disponibilizarem ferramentas facilitadas para supervisão parental, devolvendo às famílias mais poder e autonomia sobre o que seus filhos acessam e como interagem no ambiente digital. O terceiro eixo da legislação veda o uso pervasivo de dados pessoais de crianças e adolescentes para fins de direcionamento de publicidade comercial, enfrentando a lógica de exploração comercial que sustenta o modelo de negócios de grande parte das plataformas digitais.
O quarto pilar estabelece deveres de remoção prioritária e mais rápida de conteúdos que violem os direitos de crianças e adolescentes, tornando as empresas juridicamente corresponsáveis pela permanência desses conteúdos em suas plataformas. Por fim (e de forma alguma menos importante), o quinto elemento impõe obrigações de transparência e prestação de contas para plataformas com mais de um milhão de usuários nessa faixa etária, criando mecanismos de responsabilização e prestação de contas que até então inexistiam no ordenamento jurídico brasileiro.
Decretos governamentais detalham aplicação da lei
Para dar concretude às obrigações estabelecidas pela lei, o governo federal promulgou decretos de regulamentação que detalham as atribuições de cada ente e as regras aplicáveis. O conjunto normativo cria a Política Nacional dos Direitos da Criança e do Adolescente no Ambiente Digital, destinada a articular a administração pública com o sistema de garantia de direitos já existente. Os decretos também aprofundam as obrigações relacionadas à prevenção do uso compulsivo de plataformas e estabelecem parâmetros precisos para a adoção de mecanismos de aferição de idade, proporcionais ao nível de risco que cada serviço representa.
Um site de bebidas alcoólicas ou de armas, por exemplo, deve adotar mecanismos muito mais robustos de bloqueio de acesso. Uma plataforma que não oferece riscos de dano concreto nem apresente conteúdos proibidos para crianças e adolescentes não será, a princípio, obrigada a realizar a garantia de idade.
Os decretos de regulamentação trazem ainda uma resposta normativa inédita ao fenômeno crescente da Inteligência Artificial (IA) na vida de crianças e adolescentes. Sistemas de IA Generativa – modelos de linguagem conversacionais e interfaces similares – estão sujeitos a obrigações específicas quando acessíveis a esse público, com medidas e recursos de segurança específicos para garantia da saúde da criança e do adolescente. Ainda, estão restritas “a interação com sistemas que permitam diálogos, produção ou troca de vídeos e imagens, de forma artificial ou automatizada, de teor sexualmente explícito, de nudez com conotação ou finalidade sexual ou em contexto erótico”.
O Decreto também detalha com precisão técnica o que configuram práticas proibidas como “padrões manipulativos”. São considerados mecanismos de incentivo ao uso excessivo a ocultação de pontos naturais de parada, o acionamento automático de novos conteúdos sem solicitação do usuário, a oferta de recompensas pelo tempo de uso e o disparo de notificações excessivas.
Além disso, o Decreto categoriza três grandes famílias de práticas manipulativas vedadas: a obstrução deliberada do fluxo de tarefas do usuário, como tornar excessivamente difícil cancelar um serviço ou modificar preferências de privacidade; a exploração de vulnerabilidades cognitivas, mediante pressões emocionais, urgências fabricadas e estímulos inadequados à faixa etária; e o prejuízo ao exercício de direitos, ao ocultar ou fragmentar o acesso a controles de privacidade e supervisão parental. Trata-se de uma tipificação que avança sobre o texto da lei do ECA Digital, nomeia e proíbe condutas de design predatório direcionadas a crianças e adolescentes.
No que diz respeito à prevenção e resposta à violência nos ambientes digitais, destaca-se também a criação do Centro Nacional de Triagem de Notificações, no âmbito da Polícia Federal. Trata-se de uma nova instituição destinada à defesa e proteção de direitos de crianças e adolescentes no ambiente digital, com o objetivo de receber denúncias de violações graves de crimes contra crianças e adolescentes no ambiente digital.
A instituição, em partes inspirada no Centro Nacional para Crianças Desaparecidas e Exploradas dos Estados Unidos, garante que o Brasil possua estrutura nacional adequada para o recebimento de reportes de crimes e violações como abuso, aliciamento e exploração sexual infantojuvenil, bem como práticas que caracterizem “aliciamento, recrutamento ou cooptação de criança ou adolescente para práticas que representem risco crível, iminente ou em andamento de lesão física grave ou morte, incluído tráfico de crianças e adolescentes ou atos preparatórios de violência extrema preordenada contra comunidade escolar ou grupos vulnerabilizados”. Essa nova estrutura receberá reportes diretamente das plataformas e atenderá à uma lacuna importante, não havendo um fluxo de notificação claro às autoridades públicas no momento.
O Decreto institui ainda uma lógica de dupla transparência: as plataformas com mais de um milhão de usuários na faixa etária deverão publicar dados sobre as notificações recebidas e as medidas adotadas; e as próprias organizações com poder de notificação qualificada, Ministério Público, polícias e entidades habilitadas, deverão publicar relatório anual com o quantitativo de denúncias encaminhadas, sua classificação por tipo de conteúdo e as respostas obtidas das plataformas. Cria-se, assim, um sistema de prestação de contas mútua, que permite o monitoramento público da efetividade do fluxo de denúncias.
Outra inovação relevante dos decretos é a atribuição de responsabilidade às plataformas em relação à garantia de alvará judicial quando houver conteúdo produzido por crianças e adolescentes com fins de monetização ou impulsionamento, uma resposta direta à explosão do fenômeno dos chamados “influencers mirins” e das crianças expostas precocemente à lógica da economia da atenção. Além da exigência do alvará, o Decreto também detalha a vedação expressa à veiculação, monetização ou impulsionamento de conteúdos que exponham crianças ou adolescentes a situações violadoras, vexatórias ou degradantes, independentemente de autorização dos responsáveis legais.
Trata-se de um limite que a norma impõe às próprias plataformas, retirando delas a possibilidade de alegar que a autorização familiar seria suficiente para justificar a circulação desse tipo de conteúdo. A proteção da criança, nesses casos, prevalece sobre a lógica do engajamento e da monetização, em congruência com lógica já presente no Estatuto da Criança e do Adolescente (ECA).
Os decretos de regulamentação representam um primeiro passo importante para granularizar as atribuições e as regras. Em seguida à sua promulgação, a Agência Nacional de Proteção de Dados (ANPD) divulgou um cronograma de ações de regulamentação e fiscalização. Mas há pontos críticos que ainda precisam ser enfrentados.
Cabe à ANPD, entre outras iniciativas, definir quais produtos e serviços são efetivamente considerados de acesso provável por crianças e adolescentes, classificar as infrações por grau de gravidade – leve, moderada ou grave – e, sobretudo, compatibilizar a abordagem baseada em risco, que permite a adoção de diferentes medidas de mitigação por cada empresa, com a necessidade de padronizar condutas absolutamente proibidas, como a presença de loot boxes em jogos ou o perfilamento comercial de menores. Também precisam ser detalhadas as obrigações relacionadas aos relatórios de risco e impacto que as plataformas deverão elaborar e publicar periodicamente.
Outro ponto crítico da regulamentação diz respeito à publicidade. A lei proíbe o uso de técnicas de perfilamento comportamental, análise emocional, realidade aumentada, realidade estendida e realidade virtual para fins publicitários direcionados a crianças e adolescentes. Vai além ao determinar que as plataformas previnam e mitiguem ativamente a exposição desse público à promoção de jogos de azar, apostas, produtos de tabaco, bebidas alcoólicas e demais produtos de comercialização proibida, mesmo quando a criança ou o adolescente acessa um ambiente que não é formalmente direcionado a eles. A publicidade abusiva dirigida à criança é, nos termos do Código de Defesa do Consumidor, ilícita; a implementação do ECA Digital pode operar para tornar essa vedação efetiva também no ambiente digital.
A relação com o território e a construção de um fluxo de denúncia
No plano jurídico, especialistas alertam para a necessidade de ampliar o conhecimento da lei junto à sociedade e, inclusive, ao sistema de Justiça. Algumas das sanções previstas (como a suspensão ou a proibição do exercício de atividades por parte de empresas) só podem ser aplicadas após análise do Poder Judiciário. No entanto, demais sanções cíveis, criminais e administrativas já podem ser acionadas a partir da vigência e da interpretação da lei, independentemente de regulamentação adicional.
Há um caminho igualmente relevante de regulamentação de instrumentos-chave no campo do devido processo de moderação de conteúdo estabelecido na lei. Para além da inovação trazida pelo Centro Nacional de Triagem de Notificações, é necessário um trabalho coletivo e territorializado para a estruturação de fluxos de denúncias e de mecanismos de reparação de danos decorrentes de moderação de conteúdo que afetem diretamente os cidadãos, em especial crianças, adolescentes e suas famílias.
A lei e o Decreto estabelecem que as famílias, o Ministério Público, as polícias e as entidades de defesa dos direitos de crianças e adolescentes conectadas ao Conselho Nacional dos Direitos da Criança e do Adolescente (CONANDA) possuirão a prerrogativa de apoiar o fluxo de denúncias cidadãs. O Decreto vai além: em seu art. 43, parágrafo único, estabelece que os conselhos tutelares, constituídos nos termos do ECA, deverão provocar o Ministério Público para que este notifique as plataformas quanto a violações de direitos de crianças e adolescentes, criando, assim, uma cadeia institucional que vai do território à responsabilização das empresas.
Esse modelo busca garantir que as plataformas efetivamente cumpram seus compromissos contra violações de direitos de crianças e adolescentes, operando de forma contextual e conectada ao território, e atendendo de fato às reclamações de quem mais precisa e se encontra em situação de maior vulnerabilidade. Ao mesmo tempo, a lei já prevê salvaguardas contra o uso abusivo dos instrumentos de denúncia, impondo obrigações prestativas aos fornecedores de serviços digitais para coibir acionamentos desproporcionais ou de má-fé.
O objetivo central é a melhoria efetiva da experiência de todos os usuários, crianças, adolescentes ou adultos responsáveis, em direção a um ambiente informacional mais seguro, mais transparente e mais justo. Para tanto, a regulamentação avança também sobre o direito à explicação e ao contraditório na moderação de conteúdo: os usuários passarão a ter o direito de saber o que acontece com seus conteúdos, incluindo os motivos de eventuais remoções, e poderão exercer o direito de revisão por meio de procedimentos claros, acessíveis e com prazos definidos.
Sem dúvidas, estamos diante de um marco histórico e que deve ser amplamente comemorado. Mas não será possível mudar por completo o cenário de violações contra crianças e adolescentes no digital se a sociedade não avançar também em outras frentes igualmente urgentes. Políticas públicas de cuidado, acesso a um meio ambiente justo, jornadas de trabalho menos exaustivas para pais e mães – que permitam presença e atenção genuínas na vida digital dos filhos – e ações de ampliação de letramento digital, tanto nas escolas quanto na mídia, são condições incontornáveis para que a lei produza efeitos reais na vida das crianças e adolescentes brasileiros.
O caminho é longo, não é único e não depende de um único ator. Mas o ECA Digital representa, sem dúvida, um divisor de águas no âmbito da proteção das infâncias e adolescências no Brasil, além de um sinal explícito de que o país está disposto a exigir das empresas de tecnologia o que elas já deviam estar endereçando: responsabilidade real pelo mundo digital que constroem e pelo impacto que causam nas vidas mais vulneráveis.
