O Supremo Tribunal Federal (STF) concluiu no dia 26 de junho a análise sobre a constitucionalidade do Artigo 19 do Marco Civil da Internet (MCI). A Corte decidiu que a regra que condiciona a responsabilização civil de plataformas digitais ao descumprimento de ordem judicial específica já não é suficiente para proteger adequadamente os direitos fundamentais e a democracia no ambiente digital. Ao fixar uma tese com repercussão geral, os ministros reconheceram a inconstitucionalidade parcial do dispositivo, decisão que altera de forma significativa o regime de responsabilidade das plataformas no Brasil e amplia a aplicação do Artigo 21 do MCI.
O julgamento no STF foi motivado pela análise de dois recursos extraordinários com repercussão geral reconhecida (Temas 987 e 533), que tratam dos limites da responsabilidade civil de plataformas digitais. O primeiro envolve a criação de um perfil falso no Facebook, que não foi removido mesmo após denúncias. O segundo discute a negativa do Orkut em excluir uma comunidade ofensiva contra uma professora, que acabou recorrendo ao Judiciário.
Nas duas ações, as plataformas alegaram que agiram dentro do que estabelece o Marco Civil, removendo os conteúdos após decisões judiciais e, por isso, não deveriam ser condenadas a pagar indenização. Já os autores dos processos sustentaram que a demora na remoção resultou em danos concretos, e que a simples notificação extrajudicial já deveria ter sido suficiente para justificar a responsabilização.
Os casos concretos levados ao Supremo colocaram em evidência duas questões centrais: a primeira era saber se o Artigo 19 da Lei nº 12.965/2014 (MCI) é compatível com a Constituição Federal; a segunda, qual deve ser o regime de responsabilidade das plataformas digitais diante da necessidade de proteger os direitos fundamentais e os valores democráticos previstos na Constituição de 1988 no contexto online.
Leia também >> Julgamento sobre responsabilidade das plataformas no STF: como votaram os ministros
Para responder a essas questões, o STF promoveu uma audiência pública, ouviu representantes de diversos setores da sociedade e realizou 13 sessões de julgamento. O resultado foi a formulação de uma tese (confira na íntegra) com repercussão geral, que passa a orientar as instâncias inferiores e redefine o papel das plataformas no enfrentamento a conteúdos ilícitos. A seguir, explicamos os principais pontos da tese.
Novas interpretações dos Art 19 e 21 do MCI
O que muda? Na primeira parte da tese firmada pelo Supremo, os ministros reconheceram a inconstitucionalidade parcial do Artigo 19 do Marco Civil da Internet. Para a maioria da Corte, a regra atual não oferece proteção suficiente a direitos constitucionais relevantes, como os direitos fundamentais das pessoas e os pilares da democracia.
O que diz o Art. 19 do MCI:
Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.
Até que o Congresso Nacional aprove uma nova legislação sobre o tema, o dispositivo deverá ser interpretado conforme a Constituição, de forma a garantir respostas mais eficazes diante da circulação de conteúdos criminosos, ilegais ou potencialmente danosos no ambiente digital.
Entretanto, o Artigo 19 ainda valerá integralmente em alguns contextos, sendo eles:
- Crimes contra a honra (como calúnia, difamação e injúria) a responsabilização das plataformas seguirá dependendo de ordem judicial específica, em respeito à liberdade de expressão e para evitar a remoção indevida de críticas ou opiniões legítimas. No entanto, caso a Justiça reconheça a ilicitude de determinado conteúdo e determine sua remoção, publicações idênticas poderão ser retiradas pelas plataformas mediante simples notificação, sem necessidade de nova decisão judicial.
- Provedores de aplicação de internet que atuam de forma neutra e não interferem no conteúdo das comunicações, como provedores de e-mail, aplicativos de videoconferência e serviços de mensageria privada (no que se refere às conversas interpessoais protegidas pelo sigilo constitucional).
A decisão do STF também ampliou o alcance do Artigo 21 do Marco Civil da Internet, que já previa a responsabilização das plataformas em casos de divulgação não autorizada de imagens íntimas. Com a nova tese, essa lógica passa a valer para uma gama mais ampla de situações.
O que diz o Art. 21 do MCI:
Art. 21 O provedor de aplicações de internet que disponibilize conteúdo gerado por terceiros será responsabilizado subsidiariamente pela violação da intimidade decorrente da divulgação, sem autorização de seus participantes, de imagens, de vídeos ou de outros materiais contendo cenas de nudez ou de atos sexuais de caráter privado quando, após o recebimento de notificação pelo participante ou seu representante legal, deixar de promover, de forma diligente, no âmbito e nos limites técnicos do seu serviço, a indisponibilização desse conteúdo.
A partir de agora, provedores de aplicações como redes sociais e mecanismos de busca podem ser responsabilizados civilmente mesmo sem ordem judicial, desde que tenham sido notificados extrajudicialmente sobre a presença de conteúdos ilícitos, como crimes ou atos ilegais, e não tenham tomado providências para removê-los de prontidão. A ampliação também abrange casos envolvendo contas inautênticas ou falsas, reforçando a obrigação das plataformas de atuar com mais agilidade e responsabilidade diante de violações evidentes.
Responsabilidade sem aviso prévio
Um dos pontos da nova tese do STF foca no reconhecimento de que, em determinadas situações, as plataformas podem ser responsabilizadas por conteúdos ilícitos mesmo sem terem sido notificadas previamente – seja por decisão judicial ou por pedido extrajudicial.
Esse novo entendimento se aplica a dois casos específicos:
- Quando o conteúdo for veiculado por meio de anúncios ou impulsionamentos pagos;
- Quando estiver inserido em redes artificiais de distribuição, como no uso de robôs ou chatbots para disseminação automatizada.
Os provedores só estarão isentos da responsabilidade se demonstrar que atuou de forma adequada e dentro de um prazo razoável para remover o conteúdo ilegal, caso contrário, poderá ser responsabilizada civilmente
Dever de cuidado e falha sistêmica
Outro ponto central da tese firmada pelo STF diz respeito à circulação de conteúdos ilícitos especialmente graves. Nessas situações, o Tribunal estabeleceu que as plataformas digitais têm o dever de agir preventivamente, evitando que tais publicações sequer cheguem a ser veiculadas.
Trata-se do chamado dever de cuidado, que se aplica a casos envolvendo crimes como:
- Terrorismo;
- Indução ao suicídio ou à automutilação;
- Pornografia infantil e crimes contra crianças e adolescentes;
- Tráfico de pessoas;
- Discriminação e discurso de ódio;
- Violência de gênero contra mulheres;
- Atos antidemocráticos.
Segundo a nova tese, a responsabilização das plataformas por esse tipo de conteúdo não depende de notificação prévia nem de ordem judicial, mas exige a comprovação de falha sistêmica, ou seja, quando o provedor deixa de adotar medidas eficazes de prevenção e remoção, violando o dever de atuar de forma responsável, transparente e cautelosa.
A presença isolada de um conteúdo ilícito não é suficiente para caracterizar essa falha. A obrigação recai sobre situações em que há recorrência, volume significativo ou inércia diante de riscos considerados previsíveis.
Ainda segundo a tese, nas hipóteses em que o conteúdo for removido e o responsável por sua publicação entender que não houve ilegalidade, será possível recorrer ao Judiciário para solicitar o restabelecimento. Mesmo nesses casos, se o conteúdo for restaurado por decisão judicial, a plataforma não será obrigada a indenizar.
Mais transparência e presença no Brasil
A tese do STF também definiu uma série de deveres adicionais para que as plataformas cumpram, de maneira estruturada, as novas regras de responsabilização. Segundo o Tribunal, as empresas deverão implementar medidas que aumentem a transparência, a acessibilidade e o controle social sobre suas ações. Entre as exigências, está a criação de:
- Sistemas eficazes de notificação: para que usuários possam denunciar crimes e atos ilícitos de forma simples e acessível.
- Canais permanentes de atendimento: preferencialmente eletrônicos, amplamente divulgados e disponíveis tanto para usuários quanto para não usuários.
- Processo claro e justo de moderação: com justificativas para a remoção de conteúdos e possibilidade de contestação por parte dos afetados.
- Publicação de relatórios anuais de transparência: com dados sobre notificações, medidas de moderação e ações tomadas.
No caso de empresas estrangeiras que atuam no Brasil, a tese estabelece que essas devem manter representação legal no país, com identificação visível e meios de contato acessíveis ao público. Esse representante deve ter poderes para responder judicial e administrativamente, cumprir ordens das autoridades brasileiras e arcar com eventuais penalidades decorrentes de descumprimento das obrigações legais.
Responsabilidade e casos futuros
A tese firmada pelo STF estabelece que, mesmo diante das novas obrigações, a responsabilização das plataformas será sempre subjetiva, ou seja, dependerá da comprovação de que houve culpa ou intenção (dolo) por parte da empresa ao permitir a permanência do conteúdo ilegal. Isso significa que não haverá punição automática: será necessário analisar, caso a caso, se a plataforma agiu com negligência ou omissão.
Para garantir segurança jurídica, o Supremo determinou que a decisão vale apenas para casos futuros, ou seja, para processos que forem analisados a partir da conclusão do julgamento. Situações anteriores, já decididas ou em curso, não serão afetadas, exceto se ainda não houver decisão transitada em julgado.
Pressão sobre o Congresso aumenta
A decisão do Supremo Tribunal Federal foi descrita por especialistas como necessária, mas também como um sinal claro do vácuo legislativo deixado pelo Congresso Nacional. O STF reconheceu, na própria tese, que há limites institucionais para que o Judiciário atue, sozinho, em um tema tão complexo e em constante transformação como a responsabilização de plataformas digitais.
Em um dos trechos finais do documento, os ministros apelam formalmente ao Legislativo: “Apela-se ao Congresso Nacional para que seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais”. O recado é direto e tem ecoado entre especialistas e organizações da sociedade civil.
A Coalizão Direitos na Rede (CDR), em nota pública, afirmou que a decisão do STF, embora avance em pontos importantes, não substitui a necessidade de um marco regulatório completo. Segundo a CDR, o julgamento foi uma consequência direta da inércia do Legislativo, que suspendeu o debate e não avançou na votação de projetos estruturantes, como o PL 2630/2020, conhecido como PL das Fake News.
Para a organização, é urgente que o Congresso aprove uma regulação pública e democrática, baseada em direitos e atenta ao modelo de negócios das plataformas, algo que o Supremo, por seus limites constitucionais, não pode fazer.
O pesquisador do Instituto de Referência em Internet e Sociedade, Paulo Rená, concorda que a decisão do STF pode atuar como um impulso para reabrir o debate no Congresso, mas é cético quanto à possibilidade de movimentação política imediata.
“O Legislativo enterrou simbolicamente o PL 2630 e, no cenário atual, não parece disposto a retomar a tarefa. O mais provável é que vejamos primeiro os efeitos da decisão no ambiente digital, com as plataformas e o Judiciário se adaptando, para só então o Congresso ser pressionado a agir, talvez por iniciativa do Executivo ou por mobilização da sociedade”, avalia.
Nesse contexto, o que se tem, por ora, é um quadro de transição, em que a tese do STF atua como uma espécie de “remendo constitucional” para um tema que deveria ser tratado por meio de lei específica, fruto de debate público e democrático. A urgência, segundo os especialistas, segue colocada: sem legislação clara, há risco de insegurança jurídica, judicialização excessiva e desigualdade na aplicação das novas regras entre diferentes plataformas e usuários.