O presidente do Supremo Tribunal Federal, ministro Luís Roberto Barroso, proferiu, nesta quarta-feira (18), seu voto sobre o julgamento que envolve a responsabilidade das plataformas digitais. A tese proposta por Barroso diverge da apresentada pelo relator do caso, ministro Dias Toffoli, e busca um caminho intermediário em vez de declarar a total inconstitucionalidade do artigo 19 do Marco Civil da Internet (MCI). O julgamento deve voltar ano que vem, após o recesso e o pedido de vistas do ministro André Mendonça.
O que diz o Artigo 19 do MCI?
Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.
Barroso pediu vistas do julgamento na semana passada e adiantou o seu voto – normalmente o presidente é o último a se manifestar. A tese do ministro se baseia em três premissas:
- O artigo 19 é insuficiente, mas não deve ser eliminado. As exceções para a aplicação da regra do artigo 21 devem ser ampliadas.
- A responsabilidade por conteúdos de terceiros deve ser subjetiva e não objetiva. Em caso de dúvida, cabe ao Judiciário decidir.
- As plataformas devem ter o dever de cuidado para mitigar riscos decorrentes de atuação criminosa ou gravemente lesiva à sociedade.
>> Saiba o que está em jogo no julgamento do STF
>> Veja como o relator do caso votou
Para o presidente do STF, portanto, o artigo 19 é apenas parcialmente inconstitucional, propondo não retirar o texto do ordenamento jurídico. No entanto, em seu voto destaca que há uma omissão parcial do artigo por não conceder “proteção suficiente a bens jurídicos constitucionais de alta relevância, como a proteção de direitos fundamentais e da democracia”.
“Esse regime não cria incentivos adequados para que as plataformas mitiguem os riscos sociais e democráticos decorrentes de seu modo de funcionamento e adotem medidas adequadas diante da ciência e da prática de crimes”, disse Barroso ao expor sua tese. Diante disso, o presidente propõe uma interpretação conforme à constituição para o trecho “ressalvadas as disposições legais em contrário” do artigo, ampliando os casos de exceções.
O regime de responsabilidade proposto por Barroso deve se diferenciar em dois: uma responsabilidade relacionada a danos produzidos por conteúdos específicos e uma relativa à falha no dever de cuidado.
Sobre os conteúdos específicos, o ministro aponta para um novo olhar sobre os casos em que as plataformas são responsáveis pelos conteúdos. Se atualmente elas só são responsáveis após notificação judicial, a nova proposta sugere que elas sejam responsáveis após notificação privada – ou seja, do próprio usuário – em casos de crimes, incluindo perfil falso (o caso concreto que está em julgamento).
Dessa forma, a tese propõe que, no caso de um usuário ter sido vítima de um crime na plataforma, ele não precisa entrar na justiça para que a plataforma retire o conteúdo, uma notificação deve bastar para que ela analise o caso e o remova. Se a empresa não remover, o usuário pode entrar na justiça e a empresa pode ser condenada por ter atuado na primeira notificação. Atualmente ela só é obrigada a retirar com ordem judicial.
No entanto, Barroso inclui na sua tese que essa hipótese valeria para todos os crimes, exceto os crimes contra a honra – calúnia, injúria e difamação -, que continuariam necessitando de decisão judicial para ordenar a retirada.
“Em respeito ao próprio fundamento do artigo 19, que é a proteção reforçada da liberdade de expressão, os crimes contra a honra permanecem no regime de decisão judicial e retirada. Conteúdos envolvendo a honra são aqueles que normalmente veiculam críticas ao governo, a agentes públicos e pessoas em geral, bem como denúncias de crimes, abusos e mau comportamento, de modo que a supervisão judicial é necessária para evitar a censura”, disse o ministro em seu voto.
Por fim, entre os conteúdos específicos, o presidente do STF estabelece em sua tese a responsabilidade para as plataformas sobre anúncios e conteúdos e impulsionamentos independente de notificação prévia. Ou seja, apenas nesses casos – em que a plataforma recebe para fomentar um conteúdo – as plataformas ficam responsáveis desde a aprovação da publicidade e estão sujeitas a sanções.
Essa responsabilidade a qual o ministro se refere é subjetiva – e não objetiva como propôs Dias Toffoli, estabelecendo que cabe às plataformas o ônus de comprovar que atuaram de forma adequada após receberem uma notificação. Nesse modelo, as plataformas podem se eximir de culpa caso apresentem uma interpretação razoável sobre a ausência de crime, a qual será avaliada pelo judiciário. Além disso, em situações de dúvida razoável quanto à ocorrência de infração, os provedores não serão responsabilizados,
A tese de Barroso também traz uma ideia de deveres anexos para os provedores, algo semelhante ao que foi proposto por Toffoli em seu voto. O primeiro deles versa sobre a necessidade de os provedores criarem um sistema de notificação e canal de comunicação para a recepção das notificações em um formato acessível para os usuários. Além disso, a plataforma deve estabelecer um devido processo no caso de tomar providências e deve publicar relatório de transparência sobre as suas ações.
O voto do ministro Luís Roberto Barroso também traz um ponto específico sobre dever de cuidado. “Os provedores têm o dever de cuidado de mitigar os riscos sistêmicos criados ou potencializados pelas suas plataformas. Tal dever de cuidado se materializa em medidas para minimizar esses riscos e seus impactos negativos sobre direitos individuais, coletivos, segurança e estabilidade democrática”, destaca o presidente.
De acordo com a tese, as plataformas devem atuar proativamente para que o ambiente esteja livre de conteúdos gravemente nocivos, em especial violência sexual contra crianças e adolescentes, induzimento ao suicídio ou automutilação, tráfico de pessoas, terrorismo e abolição violenta do Estado de Direito. Nesses casos, esclarece o ministro, a responsabilização se dá no caso de uma falha sistêmica e não na ausência de remoção de um conteúdo específico, por exemplo.
Por fim, em seu voto, Barroso faz um um apelo ao Congresso Nacional para regular o dever de cuidado, inclusive com a criação de órgão regulador multissetorial autônomo e independente. No seu voto, o ministro destacou os prejuízos caso esse órgão seja estatal.
Outras discordâncias
Durante a semana, a sociedade civil organizada também manifestou discordâncias sobre o voto do ministro relator do processo, Dias Toffoli, e o voto do ministro Luiz Fux, que acompanhou o relator. A Coalizão Direitos na Rede publicou uma nota em que indica que as “imprecisões dos respectivos votos demonstram incompreensão sobre as práticas de moderação de conteúdo e modelos de negócio do ecossistema digital. “Suas possíveis consequências podem extrapolar o que aparenta estar na perspectiva dos Ministros”, pontua a CDR, destacando que o regime proposto gera insegurança jurídica, afeta a liberdade de expressão e a liberdade de imprensa de forma desproporcional.
Além da CDR, a ISOC Brasil, capítulo brasileiro da Internet Society, também se pronunciou com uma nota expressando preocupação com a discussão sobre a (in)constitucionalidade do artigo 19 do Marco Civil da Internet. “A declaração incidental de inconstitucionalidade do art. 19 do Marco Civil da Internet no bojo de um Recurso Extraordinário representa risco de cisão das instituições democráticas, que resulta em reforma legislativa por via indireta, visto que o modelo de responsabilidade subsidiária dos provedores de redes sociais é fruto de um estimado esforço social para seu consenso”, coloca a organização.