O julgamento do Marco Civil da Internet começou no dia 27 de novembro e ainda não tem prazo para terminar. Na última semana, o relator do caso, ministro Dias Toffoli, terminou de proferir o seu voto defendendo a inconstitucionalidade do artigo 19 do Marco Civil da Internet e propondo novos parâmetros para o regime de responsabilidade das plataformas digitais.
O artigo 19 garante que as empresas não serão responsabilizadas por conteúdos publicados por usuários a não ser que haja um pedido judicial de remoção que não seja atendido. Ou seja, o julgamento, em linhas gerais, analisa se os provedores de aplicação – categoria em que as plataformas digitais estão incluídas – são ou não responsáveis pelo conteúdo publicado pelos seus usuários.
O que diz o Artigo 19 do MCI?
Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.
“Parece-me evidente que o regime de responsabilidade dos provedores de aplicação por conteúdo de terceiros, previsto no art. 19 do MCI, é inconstitucional”, disse Toffoli em seu voto. “Seja porque, desde a sua edição, foi incapaz de oferecer proteção efetiva aos direitos fundamentais e resguardar os princípios e valores constitucionais fundamentais nos ambientes virtuais, conforme adiante se demonstrará, seja porque, como já demonstrado, não apto a fazer frente aos riscos sistêmicos que surgiram nesses ambientes, a partir do desenvolvimento de novos modelos de negócios e de seu impacto nas relações econômicas, sociais e culturais”, complementou o ministro.
Apesar de o julgamento analisar um caso específico ocorrido no Facebook em 2014, o processo foi reconhecido como de repercussão geral, ou seja, a decisão da corte vai uniformizar a interpretação constitucional de acordo com a tese definida que pode ou não ser a mesma apresentada pelo relator do caso.
Além da inconstitucionalidade, o ministro Toffoli propõe outras mudanças no regime de responsabilidade na tese que denominou “Decálogo contra a violência digital e a desinformação”. Entenda ponto a ponto o voto do ministro – que consiste na inconstitucionalidade do artigo 19 e a proposição de um novo regime de responsabilidade, incluindo hipóteses específicas que as plataformas podem ser responsáveis mesmo sem nenhum tipo de notificação.
A inconstitucionalidade do artigo 19
A decisão do ministro Toffoli pela inconstitucionalidade do artigo 19 significa dizer que ele é considerado inválido por violar a Constituição Brasileira. De acordo com a fundamentação do ministro, o regime atual promoveria uma “indevida hierarquização entre a liberdade de expressão e outros direitos fundamentais”.
“É exatamente isso que, a meu ver, o Marco Civil da Internet está a fazer ao estabelecer uma regra de responsabilidade por conteúdos gerados por terceiros que, na prática, assegura imunidade para os provedores de aplicações de internet – e a todos eles, independentemente das atividades que desenvolvam – a pretexto de assegurar as liberdades de expressão e de informação e à inovação tecnológica”, defende Toffoli.
Caso a tese defendida pelo ministro seja acatada pelos demais membros da corte, a inconstitucionalidade do artigo 19 traria um vácuo normativo para entender a responsabilidade das empresas e esse espaço teria que ser preenchido por outras legislações, como Código de Defesa do Consumidor e Código Civil, por exemplo. O diretor executivo do InternetLab, Francisco Brito Cruz, explica que a ausência de uma lei específica para regular a responsabilidade sobre conteúdos online criaria um vácuo legal, o que pode levar a diferentes interpretações por tribunais em todo o país, gerando uma pulverização de decisões.
Para Bruna Santos, gerente de campanhas global na Digital Action, uma eventual decisão do Supremo sobre a inconstitucionalidade do MCI é colocar o Brasil de volta à estaca zero em termos de responsabilização das plataformas. “O Marco Civil da Internet é um equilíbrio importante entre obrigações impostas às plataformas para promover melhorias ao ambiente digital, respeitar direitos humanos e cumprir com ordens judiciais elaboradas por cortes brasileiras”, comenta Santos.
“Ele [o Marco Civil] também define que somente a justiça brasileira é capaz de chancelar a existência de dano decorrente de um conteúdo específico e que plataformas não podem remover livremente conteúdos uma vez que isso poderia gerar riscos à liberdade de expressão dos brasileiros”, complementa.
Outro regime de responsabilidade
Além de declarar a inconstitucionalidade do artigo 19, a tese defendida por Toffoli propõe um outro regime, que inclui o artigo 21 do MCI. O artigo 21 traz uma exceção para a não responsabilização das plataformas, destacando que no caso de conteúdos chamados de “pornografia de vingança”, a plataforma deve retirar do ar no momento que for notificada pela vítima ou seu representante. Ou seja, a remoção deve ser feita ainda antes de uma decisão judicial e, caso não seja, a empresa pode ser penalizada.
O que diz o Artigo 21 do MCI?
Art. 21. O provedor de aplicações de internet que disponibilize conteúdo gerado por terceiros será responsabilizado subsidiariamente pela violação da intimidade decorrente da divulgação, sem autorização de seus participantes, de imagens, de vídeos ou de outros materiais contendo cenas de nudez ou de atos sexuais de caráter privado quando, após o recebimento de notificação pelo participante ou seu representante legal, deixar de promover, de forma diligente, no âmbito e nos limites técnicos do seu serviço, a indisponibilização desse conteúdo.
A partir do entendimento do ministro, esse artigo – que atualmente é a exceção – se tornaria a regra para a responsabilização das plataformas. O mecanismo é conhecido como “notice and take down”, ou seja, notificação e remoção do conteúdo. Em seu voto, o ministro também chamou a ferramenta de “notice and analyses”, em que o usuário notifica a plataforma e esta analisa a manutenção ou não do conteúdo/perfil. De acordo com especialistas da área, o procedimento é o mesmo para os dois termos.
Assim defende Toffoli:
Como regra geral, o provedor de aplicações de internet será responsabilizado civilmente, nos termos do art. 21 do MCI, pelos danos decorrentes de conteúdos gerados por terceiros, inclusive na hipótese de danos à intimidade, à vida privada, à honra e à imagem, quando, notificado pelo ofendido ou seu representante legal, preferencialmente pelos canais de atendimento, deixar de promover, em prazo razoável, as providências cabíveis, ressalvadas as disposições da legislação eleitoral e os atos normativos expedidos pelo TSE.
“Essa regra, quando expandida para um um grupo mais geral de conteúdos, torna-se um tanto genérica e pode acabar resultando nas plataformas moderando ainda mais conteúdos do que o normal com medo de uma eventual notificação”, avalia Bruna Santos.
Brito Cruz também destaca que pode haver uma instrumentalização das notificações para forçar a plataforma a remover conteúdos legítimos. Ou seja, exemplifica o especialista, autoridades políticas, com o argumento da defesa da honra, poderiam pedir a remoção de alguma publicação jornalística nas plataformas que envolva denúncias contra ele. “Acredito que é importante que isso seja protegido por algo além de você simplesmente ter que fazer uma denúncia, é importante que o judiciário possa olhar”, coloca Cruz, indicando que a notificação judicial é importante em alguns casos.
No entanto, analisa o diretor do InternetLab, esse novo regime de responsabilidade partindo do artigo 21 pode ser considerado inócuo por uma “armadilha” que também está no voto do ministro Dias Toffoli.
Uma responsabilidade objetiva para as plataformas
O terceiro ponto do voto do relator traz hipóteses para que as empresas tenham uma responsabilidade objetiva e sem a necessidade de notificação (judicial ou extrajudicial) sobre determinados conteúdos que circulam em suas plataformas.
A responsabilidade objetiva dispensa a necessidade de comprovar culpa ou negligência – elementos subjetivos – para que o agente seja responsabilizado por um dano.
De acordo com o texto, essa responsabilidade ocorre em alguns casos taxativos, como:
- crimes contra o Estado Democrático de Direito;
- atos de terrorismo ou preparatórios de terrorismo;
- crime de induzimento, instigação ou auxílio a suicídio ou à automutilação;
- crime de racismo;
- qualquer espécie de violência contra a criança, o adolescente e as pessoas vulneráveis;
- qualquer espécie de violência contra a mulher;
- infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medidas sanitárias em situação de Emergência em Saúde Pública de Importância Nacional;
- tráfico de pessoas;
- incitação ou ameaça da prática de atos de violência física ou sexual;
- divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados que levem à incitação à violência física, à ameaça contra a vida ou a atos de violência contra grupos ou membros de grupos socialmente vulneráveis; e
- divulgação de fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral.
Muitos desses casos do rol taxativo se encontram nas hipóteses de dever de cuidado previstas no PL 2630, que versava sobre a regulação de plataformas. No entanto, o projeto de lei não alterava o regime de responsabilidade, mas focava na criação de uma responsabilização administrativa. Isso significa que as plataformas seriam avaliadas quanto à implementação de sistemas adequados para moderação de conteúdo, com foco na diligência em casos graves, mas não seriam consideradas automaticamente responsáveis por todo o conteúdo postado.
Além disso, o ministro defende que a responsabilidade objetiva recaia quando também se tratar de conta inautêntica ou automatizada. Por fim, onde está o ponto de análise apontado por Brito Cruz, Dias Toffoli argumenta que esse regime também deve prevalecer quando as plataformas “recomendem, impulsionem (de forma remunerada ou não) ou moderem” os conteúdos gerados por terceiros.
Para Brito Cruz, o escopo do que propõe o ministro é tão amplo que nada ficará abarcado sobre a ideia do “notice and take down”. Como não define o que é recomendação, explica o especialista, isso poderia abarcar a grande parte da internet nesse regime. Ele argumenta que ações como ordenar conteúdo em um site, destacar um post em relação a outro, ou mesmo a organização de resultados de busca, poderiam ser interpretadas como “recomendação” e, portanto, estariam sujeitas à responsabilização objetiva.
Como resultado desse cenário, o especialista acredita que isso implicaria ter que conseguir ver tudo o que os usuários publicam porque senão ela toma o risco de aquele conteúdo causar um dano para alguém. “Então, a responsabilização objetiva nesses casos pressupõe monitoramento ativo, vigilância e controle de conteúdos. Todos os conteúdos postados dentro daquele assunto ou a partir daquele tipo de recomendação carregará um monitoramento ativo”, explica Francisco Brito Cruz.
Paulo Rená, pesquisador do Instituto de Referência em Internet e Sociedade (IRIS), também analisa a não definição do que é entendido como conteúdo recomendado como um aspecto negativo. Para ele, “é o ponto mais problemático da decisão” o fato de não precisar de notificação para a recomendação, moderação e o impulsionamento de conteúdos.
O IRIS publicou, nesta terça-feira (10), uma nota técnica pontuando que “não se ignora a necessidade urgente de maior transparência por parte das plataformas quanto às suas práticas na gestão da distribuição dos conteúdos publicados por seus usuários”. Porém, a organização afirma que “a generalidade da proposta não faz distinção entre os conceitos de recomendação, moderação e impulsionamento”, o que pode abarcar “quase tudo que circula nas redes sociais digitais”, incluindo plataformas com modelos de negócios distintos.
A gente de campanhas do Digital Action, Bruna Santos, também acredita que deveria haver uma definição mais clara. “Acho que ele [ministro Dias Toffoli] poderia ter desenvolvido ou mergulhado um pouco mais sobre o que significam esses conceitos por serem conceitos que o Marco Civil não trata e continuam sendo conceitos que ainda estão sendo explorados pela perspectiva do regulador brasileiro”, comenta.
Para Santos, esse cenário “acabaria fomentando uma espécie de relacionamento um tanto contencioso entre usuários, justiça brasileira e plataformas uma vez que as últimas se sentiriam quase obrigadas a moderar mais conteúdos de maneira preventiva, os usuários seriam afetados com tal medida e a justiça brasileira acabaria se vendo forçada a – também – analisar casos de moderação de conteúdo e pedidos de restituição de posts removidos”.
Essa nova perspectiva também provocou as empresas a se manifestarem. Em uma carta assinada por seis organizações do setor, as entidades julgam que “os parâmetros propostos para a responsabilização reduziriam a segurança jurídica e aumentariam a judicialização, dificultando ainda mais o funcionamento de diversos setores e podendo gerar um espaço para indústrias de notificação extrajudicial em diferentes campos”.
Outros pontos
Além do regime de responsabilidade das plataformas, a tese proposta pelo relator do caso destaca exceções para provedores de serviços de e-mail, videochamada e mensageria privada (como o WhatsApp), além de prever um outro tipo de responsabilidade para provedores que atuarem como marketplaces.
O décalogo também inclui outros deveres para os provedores, como “atuar de forma responsável, transparente e cautelosa”, além de:
- atualizar e manter atualizados os “termos e condições de uso”;
- criar mecanismos para assegurar a autenticidade das contas e a correta identificação dos respectivos usuários;
- elaborar os respectivos códigos de conduta;
- estabelecer regras claras e procedimentos padronizados para a moderação de conteúdos;
- proceder à constante atualização dos critérios e métodos empregados para a moderação de conteúdos, dando ampla publicidade aos usuários;
- combater a difusão de desinformação e de notícias fraudulentas nos ambientes virtuais;
- monitorar os riscos sistêmicos de seus ambientes digitais, produzindo relatórios semestrais de transparência;
- disponibilizar canais específicos de notificação para o recebimento de denúncias quanto à existência de conteúdo considerado infringente (com teor ofensivo ou ilícito); e
- produzir relatórios semestrais de transparência relativamente à gestão e à resolutividade das reclamações pelos seus sistemas internos.
Por fim, a tese da inconstitucionalidade do artigo 19 apresentada por Dias Toffoli também traz o dever de as empresas que tiverem sede no exterior constituam um representante no país e traz um “apelo aos poderes Legislativo e Executivo” para que, por exemplo, no prazo de 18 meses, elaborem e implementem política pública destinada ao enfrentamento da violência digital e da desinformação, de caráter interinstitucional e multidisciplinar.
O julgamento sobre a constitucionalidade do artigo 19 continua
O julgamento do caso retoma nesta quarta-feira (11) com a leitura do voto do ministro Luiz Fux, relator de um outro recurso que também versa sobre a responsabilidade das plataformas, mas que é um caso anterior à aprovação do Marco Civil da Internet. Após isso, os demais ministros (Flávio Dino, Cristiano Zanin, André Mendonça, Kassio Nunes Marques, Alexandre de Moraes, Edson Fachin, Cármen Lúcia, Gilmar Mendes e Luís Roberto Barroso) devem expor o seu voto, e podem tanto acompanhar o relator na inconstitucionalidade do artigo 19 quanto apresentar propostas e argumentos novos.
Cada ministro terá a oportunidade de justificar seu voto, mas o que realmente definirá a decisão será a tese aprovada pela maioria. É possível que, a partir das diferentes perspectivas e proposições dos ministros, a tese original do relator seja alterada, incorporando sugestões e modificações propostas por outros membros do STF. A forma final da tese será resultado de um processo de negociação que ocorrerá em parte no julgamento público e em parte nos bastidores do Tribunal.