A ideia de “dever de cuidado” foi incorporada de vez no debate brasileiro sobre regulação de plataformas. Se até o ano passado o termo não era tão mencionado, a ideia de que as empresas precisam ter novas responsabilidades foi adotada pelos principais atores envolvidos.
Em fevereiro, o ministro do Supremo Tribunal Federal (STF), Luís Roberto Barroso, falou na mesa de encerramento da conferência da Unesco “Internet for Trust”, em Paris, sobre a necessidade de as plataformas terem esse “dever de cuidado”. No Executivo, o pensamento era o mesmo. No mês passado, o Ministro da Justiça e Segurança Pública, Flávio Dino, reforçou essa ideia em evento promovido pela Fundação Getúlio Vargas.
Como seria a aplicação deste conceito, no entanto, só ficou mais claro com a divulgação, no final do mês, da primeira proposta do governo federal sobre regulação, que amplia as responsabilidades das plataformas e traz conceitos já utilizados em outros países.
Mas, afinal, o que é dever de cuidado?
Dever de cuidado é um princípio jurídico que não surge com as plataformas digitais, é algo comum no direito civil. O conceito parte do pressuposto que pessoas, tanto físicas quanto jurídicas, devem adotar as medidas necessárias e razoáveis para prevenir a ocorrência de danos pela sua atividade.
“O que acontece agora com as plataformas digitais é que passam a reviver esse conceito do dever de cuidado e isso tem a ver principalmente pela posição que as plataformas ganharam no fluxo da comunicação cotidiana da população”, explica Ricardo Campos, diretor do Instituto Legal Grounds for Privacy Design e docente no Goethe Universität Frankfurt am Main.
Campos reforça que da plataformização da internet surge o questionamento de se as plataformas digitais não deveriam ter alguns deveres de cuidado em relação ao fluxo comunicacional, “porque esse fluxo tem também um impacto na democracia, nas instituições e nos direitos dos indivíduos”.
No caso das plataformas, relata Bruna Santos, pesquisadora no Centro de Ciências Sociais de Berlim (WZB) e membro da Coalizão Direitos na Rede, o dever de cuidado recai, principalmente, sobre os conteúdos publicados, para que adotem medidas específicas para controlar essa circulação.
Apesar de estar no singular, o “dever de cuidado” engloba “deveres”. Trata-se de um conjunto de medidas capazes de diminuir os riscos que a rede promove.
Dever de cuidado e responsabilidade das plataformas
Pensar dever de cuidado é, portanto, pensar – ou repensar – a responsabilidade das plataformas. As empresas de redes sociais sempre foram tratadas e se venderam como empresas de tecnologia que tinham como modelo o conteúdo produzido por terceiros. Esse entendimento pautou por muito tempo a ideia de responsabilização delas.
Nos Estados Unidos, por exemplo, a seção 230 da Communications Decency Act (Lei de Decência nas Comunicações, em tradução livre) desde 1996 isenta de responsabilização os serviços digitais pelos conteúdos postados pelos usuários. Atualmente a Suprema Corte dos EUA reconsidera essa posição, acompanhando uma tendência mundial de olhar mais atentamente para esse regime de responsabilidade.
Ricardo Campos e Bruna Santos são críticos em relação à legislação norte-americana. “A seção imuniza os provedores de aplicação de internet de qualquer responsabilização sobre conteúdos que trafegam neles, então o Facebook não pode ser responsabilizado por discurso de ódio nem nada nessa linha porque ali tem uma imunização e garantia de que eles são meros provedores de informação e não necessariamente tem uma um papel ativo na curadoria, na definição de conteúdo”, explica Bruna Santos.
Para Campos, essa visão precisa ser repensada em direção à responsabilização. “Ao estruturarem conteúdos de terceiros de acordo com as próprias preferências, as plataformas devem ter sim alguns deveres adicionais com relação a esse fluxo”, opina.
Esse debate já está incorporado ao cenário brasileiro. Na última semana de março, o Supremo Tribunal Federal promoveu uma audiência pública para discutir a constitucionalidade do artigo 19 do Marco Civil da Internet. O artigo 19 do MCI isenta as plataformas de responsabilidade sobre o conteúdo de terceiros, vinculando a remoção de conteúdo considerado ofensivo somente a partir de ação judicial.
Bruna Santos opina que o “dever de cuidado” não contraria, necessariamente, o Marco Civil da Internet porque não há uma imunidade absoluta, já Campos defende a necessidade de atualização do artigo.
A ideia de responsabilização já está presente em outras legislações ao redor do mundo. A lei alemã “Netzwerk Durchsetzung Geset” (em tradução livre: “Lei de Aplicação na Internet”), conhecida por NetzDG, de 2018, já traz uma ideia de responsabilização, assim como o Digital Services Act (Lei de Serviços Digitais da União Europeia), que aborda deveres de transparência e mitigação de riscos sistêmicos.
Dever de cuidado no Brasil
Apesar do debate sobre o Marco Civil da Internet mencionado anteriormente, foi na recente proposta regulatória elaborada pelo Governo Federal que o termo foi visto. De acordo com o texto, as big techs deverão implementar medidas de transparência ativa prestando informações sobre o seu funcionamento geral e adotar o chamado “dever de cuidado”.
Assim, as plataformas terão que atuar de “forma diligente e em prazo hábil e suficiente, para prevenir ou mitigar práticas ilícitas no âmbito do seu serviço”, aprimorando seus esforços para o combate de conteúdo ilegal que configurem ou incitem:
- Crimes contra o Estado Democrático de Direito;
- Crimes de terrorismo;
- Crimes contra crianças e adolescentes;
- Crimes resultantes de preconceito de raça ou de cor;
- Crimes contra a saúde pública;
- Indução, instigação ou auxílio a suicídio ou a automutilação;
- Violência de gênero.
O texto foi encaminhado para o relator do projeto de lei na Câmara, deputado Orlando Silva, e ainda não tem data para ser debatido. Ou seja, ainda não é possível prever se a ideia de dever de cuidado vai estar presente em uma futura legislação brasileira.
Prós e contras
Especialistas da área temem que incluir essas responsabilidades de, por exemplo, remover conteúdos específicos possa dar “mais poder” para as plataformas digitais. Além disso, há um temor que gere um efeito inibitório (chilling effect), ou seja, as plataformas com receio de serem penalizadas caso não removam algo, atuem de forma intensa, retirando até mesmo conteúdos legítimos da rede.
“Tem que ver – se de fato virar lei – como elas [as plataformas] vão reagir a essas novas obrigações, porque a tendência é essa: pode ser que elas criem um filtro, medidas de moderação, que vão retirar conteúdos mesmo que estejam na linha tênue, mas a gente só vai saber no teste da lei”, opina Bruna Santos.
Ricardo Campos não teme esta reação. Ele diz que a moderação de conteúdo hoje é feita sem nenhuma transparência, o que justifica a importância de se criar critérios específicos para a atividade e para a realização das medidas que compõem a ideia de dever de cuidado. “Estamos na verdade jogando luz dentro de uma caixa preta onde ninguém sabe o que acontece”, argumenta.
“Dever de cuidado são deveres orientados por interesses públicos, criados por interesse público para que isso não seja só um mecanismo de mercado”, conclui o professor.