Início 9 boas polêmicas 9 As plataformas devem ter algum tipo de responsabilidade sobre conteúdo desinformativo publicado pelos usuários?

Boas polêmicas

set 11, 2021 | boas polêmicas

As plataformas devem ter algum tipo de responsabilidade sobre conteúdo desinformativo publicado pelos usuários?

COMPARTILHAR:

Responsabilizar intermediários por conteúdos que desinformam é medida que se apressa de forma errada

“Apressa-te devagar” (festina lente) era o lema frequentemente repetido pelo imperador romano Augusto. A frase, que atravessou os séculos, foi adotada pelos Médici e virou marca de relógio. As suas várias interpretações geralmente convergem para a ideia de que toda ação possui seu tempo, e que desempenha-la apressadamente, com o intuito de dar cabo de algo que parece urgente, é a receita para o desastre. Não se nega a urgência das coisas – ao contrário -, mas joga-se luz tanto nos custos de se fazer logo apressadamente, como nos ônus de nunca se fazer nada. 

O debate sobre os remédios que podem ser adotados para combater a epidemia de desinformação na Internet precisa de uma boa dose de festina lente. É igualmente importante fugir das soluções imediatistas derivadas da sensação de urgência do tema, como também da paralisia resultante da sua enorme complexidade. 

Um mantra constantemente repetido nesse debate é que não existe uma bala de prata que encerre de uma vez por todas o mal da desinformação. Junto desse mantra existe outro: que não cabe ao Direito sozinho resolver essa missão. Uma visão plural do combate à desinformação ajuda a compreender como a adoção de uma forma de responsabilidade dos provedores pelo conteúdo que desinforma pode não apenas não resolver o problema, como também criar outros tantos.

As soluções jurídicas lançadas para combater a desinformação devem sempre estar de olho também nos componentes econômicos, sociais e tecnológicos do problema. Esses quatro fatores devem andar juntos nos debates difíceis sobre regulação da rede, conforme ilustrou Lawrence Lessig no final dos anos 90. Não raramente comportamentos são estimulados ou restringidos por forças que correm ao lado da análise estritamente jurídica.

No caso do combate à desinformação, as soluções jurídicas devem estar atentas à raiz econômica do problema. Desinformar pode ser um bom negócio, alimentado por redes de criação e de disseminação de informações falsas, além de toda engenharia de sistemas de anúncios e de recomendações que reforçam padrões e ampliam visibilidade de postagens. Nesse sentido, o TSE já começou a expandir sua caixa de ferramentas no enfrentamento a conteúdos falsos na rede: além de ordenar a remoção de contas e de publicações, passou a ordenar também a desmonetização de canais de vídeo, atingindo diretamente uma importante fonte de financiamento dessas estruturas. 

Outro componente da equação são as práticas sociais que precisam ser miradas no combate à desinformação. Campanhas de letramento digital, ainda que não produzam um efeito imediato, progressivamente vão levando à população um melhor entendimento sobre o que se lê, se vê e se compartilha nas redes. As pessoas também praticam ou deixam de praticar comportamentos por pressão social, por reflexo dos seus pares. Nesse sentido, um olhar sobre o que estimula o compartilhamento de informações falsas – seja o desejo de pertencimento a um grupo ou visões sobre diversidade ideológica – devem também entrar na equação.  

Por fim, o desenvolvimento de tecnologias é em si uma força regulatória, promovendo ou restringindo comportamentos. No combate à desinformação, vale atentar ao papel desempenhado por diferentes métodos de moderação de conteúdo, como a rotulagem de publicações, a inserção de fontes confiáveis, a introdução de checagem de fatos, restrições ao compartilhamento e etc. A arquitetura das plataformas aqui desempenha um papel relevante em como se dará o enfrentamento da desinformação. De nada adianta repetir que informação falsa se combate com mais informação se esse conjunto de informações adicionais não chegar ao usuário, que permanece em suas câmaras de eco em sistemas de recomendação. 

Essa visão plural das soluções que podem ser aventadas para o combate à desinformação revelam como o aparato regulatório que pode ser movido nesse sentido é mais plural do que simplesmente a costura de um regime de responsabilização. E essa medida se torna ainda mais complexa quando se reflete sobre o cenário brasileiro e sobre recentes experiências internacionais.

Não faltam exemplos de leis que buscam sancionar quem compartilha notícias falsas ou mesmo criar um regime de responsabilização diferenciado para essa matéria. Não raramente essas iniciativas acabam gerando efeitos deletérios como a assunção de poder por parte de agentes governamentais para dizer o que é ou não verdadeiro, ou a supressão de discursos legítimos na rede por receio de aplicação abusiva de sistemas de responsabilização sobre provedores que viabilizam a expressão de milhões de usuários.

No Brasil, o desenho do regime de responsabilização de provedores de aplicações pelo conteúdo publicado por terceiros segue o artigo 19 do Marco Civil da Internet. Segundo esse dispositivo, os provedores apenas seriam civilmente responsabilizados pela publicação de conteúdo alheio caso falhassem em remover esse material após uma ordem judicial assim o determinar. 

O regime brasileiro cria uma zona de liberdade com uma trava de segurança. Ao mesmo tempo ele permite que as plataformas desenvolvam suas próprias regras, promovendo sua aplicação nos ambientes online, mas reconhece – por óbvio – ao Poder Judiciário a prerrogativa de definir a licitude ou a ilicitude de um conteúdo. Essa medida é importante porque as plataformas precisam poder agir, com base nas suas regras, para moderar conteúdos danosos (como as chamadas fake news), mas quem decide sobre a ilicitude do material (ou mesmo sobre o acerto da moderação conduzida pela plataforma) é o Poder Judiciário à luz das leis nacionais.

Com o regime do artigo 19 o Brasil escapou da tentação de dar ao Governo o poder de dizer o que pode e o que não pode ser publicado na rede, o que é verdadeiro e o que é falso. A tentação não é pequena, como bem demonstrou o artigo 2º da Medida Provisória 1.068/21, que concedeu a órgão da Administração Pública a competência para punir empresas de redes sociais e mandar restaurar conteúdos removidos pelos provedores que estejam fora de uma lista de temas passíveis de moderação (lista essa da qual não constam itens como informações falsas ou desinformação).

Aventar a criação de um regime de responsabilização para os provedores de aplicações pela exibição de conteúdos que desinformam parece ser uma medida que se apressa da forma errada. Antes de assentar esse debate é preciso no Brasil: (i) consolidar um regime geral de responsabilidade civil na Internet (já que ainda pende no STF uma decisão sobre a constitucionalidade do artigo 19); (ii) proteger e criar meios de aperfeiçoamento da atividade de moderação de conteúdo como medida essencial para o combate a conteúdos danosos na rede, especialmente em tempos em que essa habilidade dos provedores está sob ataque e, (iii) ter clareza sobre em quais condições será afirmado que um conteúdo é em si gerador de desinformação, afastando as tentativas de monopolização dessa atribuição por gabinetes governamentais. 

O desenho de uma obrigação de remover conteúdos ostensivamente ilícios foi considerada inconstitucional na França pelos impactos na liberdade de expressão e dubiedade conceitual. Leis para combater fake news na Tailândia e em Singapura receberam críticas por gerar o efeito indesejado de silenciar vozes de grupos de oposição e de minorias. Essas são medidas que procuraram responder à urgência do tema, mas de modo inapropriado. 

O Brasil precisa levar em consideração todo esse cenário no debate sobre como melhor combater a desinformação. Devemos usar todas as ferramentas disponíveis, aliando as perspectivas jurídica, econômica, social e tecnológica para que, dada a sua complexidade e urgência, possamos ter a pressa que o tema merece. 

 

Carlos Affonso Souza
Professor da Faculdade de Direito da UERJ. Diretor do Instituto de Tecnologia e Sociedade (ITS Rio)

 

Participe do debate. Envie seu comentário.
0
Participe do debate. Envie seu comentário.x

Empresas digitais têm responsabilidade de infraestrutura pública porque administram a liberdade de expressão

Niklas Luhmann inicia seu livro sobre a realidade dos meios de comunicação em massa com uma frase que ilustrava de forma precisa como a comunicação social era manejada no corpo da sociedade: “Tudo o que nós sabemos sobre a sociedade, e sobre o mundo, no qual vivemos, nós sabemos pelos meios de comunicação de massa.” Passados quase trinta anos de sua formulação, poderíamos sem quaisquer contrarrazões aferir que a representação da esfera pública hoje encontra-se mais centralizada em serviços digitais do que nos meios de comunicação de massa tradicionais propriamente ditos, até mesmo pela convergência dos antigos meios para o meio digital. Poderíamos nesse sentido reescrever a frase luhmanniana nos seguintes termos: “Tudo o que nós sabemos sobre a sociedade, e sobre o mundo, no qual vivemos, nós sabemos pelos meios digitais das redes sociais.”

Esse deve ser o ponto de partida para qualquer abordagem sobre a questão da moderação de conteúdo e suas externalidades positivas e negativas. Vale notar, que a moderação de conteúdo só se torna um novo tema quando ocorre um desacoplamento da produção e moderação de conteúdo feita por organizações com trabalho redacional dos antigos meios de comunicação de massa. Se antes padrões profissionais do jornalismo, atrelados ao plano organizacional dos meios televisão, rádio e papel (imprensa), conferiam os contornos da produção de conteúdo que circulava na sociedade, agora, com o novo meio da internet e a convergência dos antigos meios para o meio digital, uma nova questão se coloca sobre como os conteúdos que circulam na esfera pública são curados pelos serviços digitais privados.

Aqui vale um olhar na infraestrutura da circulação da informação social. O que difere o momento da informação dos meios de comunicação em massa do momento da informação dos serviços digitais reside no fato de que os novos serviços digitais privados não produzem propriamente o conteúdo em si – como um jornal – mas centram sua atividade comercial na organização do conteúdo produzido por terceiros. Nesse sentido, poderia-se dizer que a moderação de conteúdo seria a mercadoria propriamente dita oferecida pelas empresas digitais aos seus clientes-usuários visto que a forma de financiamento dessa economia através de publicidade não se difere em larga medida de como os meios de comunicação de massa tradicionais se financiavam também através da publicidade.

Ao tratar do manejo da participação e alcance da expressão dos indivíduos na sociedade, a moderação de conteúdo traz consigo aspectos de tensão entre o público e privado muito bem modelados na dualidade entre a proteção da autonomia privada das empresas digitais e sua participação como infraestrutura da comunicação da sociedade que tocam aspectos decorrentes do regime público da comunicação social e suas condicionantes. Essa tensão resulta especialmente do fato de que o produto comercial desses serviços privados nada mais é do que a administração da liberdade de expressão da população que, apesar de possuir uma dimensão inicial privada, toca diretamente questões de direito público como a formação da opinião pública, tão cara a qualquer democracia.

Nesse ponto de conflito entre público e privado vale também lembrar que a Constituição brasileira de 1988, assim como toda constituição de estados democráticos, confere um regime jurídico diferenciado para a comunicação pública e privada. Enquanto a comunicação privada é protegida pela privacidade e sigilo, para a comunicação pública há uma imposição de um regime de direito administrativo diferenciado. Isso por um simples motivo: a empresa que queira participar da comunicação coletiva formando opinião e impactando nas estruturas democráticas, deve (ou deveria) submeter-se à um regime de obrigações diferenciado (art. 220 e seguintes da Constituição).

Mesmo que esse regime jurídico não se aplique à nova dinâmica das redes digitais, o espírito por detrás da diferenciação entre proteção da comunicação privada e pública não pode ser deixado de lado pois ele tem como telos resguardar pilares centrais para a manutenção da democracia. Nesse sentido, cabe ao legislador e ao judiciário construir novos deveres e obrigações adequados para o ambiente digital especialmente para as empresas que mirem seus modelos de negócios para a participação na dimensão coletiva da comunicação. Até o momento, os debates públicos no Brasil sobre a moderação de conteúdo têm ocorrido apenas pela ótica da lógica privada, que representa apenas o primeiro revestimento jurídico quando o usuário aceita os termos e condições do lado empresarial do contrato para utilizar (e também ser utilizado) pelos serviços privados. O segundo revestimento jurídico, decorrente do impacto do manejo privado da liberdade de expressão da população nos pilares da democracia, ainda encontra-se num estágio inicial de discussão com o PL 2630.

Aqui, dentre várias propostas, há que se focar especialmente em dois pilares centrais: primeiramente em criar deveres de transparência sobre a moderação de conteúdo e, last but not least, a necessária implementação do que se chama de devido processo informacional. Em especial, o devido processo informacional visa desconstruir ou diminuir a assimetria causada por institutos como o do Art. 19 do MCI, no qual joga-se para o judiciário a primeira instância de (des) proteção do indivíduo. Na Alemanha e na União Europeia, o caminho tomado tem sido o inverso, procurando em primeiro plano obrigar as plataformas digitais a criarem um procedimento digital de fácil acesso para defesa dos usuários, respeitados determinados parâmetros procedimentais de direito público. O judiciário exerceria aqui um papel de observador de segunda ordem, o qual observa os parâmetros construídos em plataforma digital, intervindo somente se esses se desviarem dos padrões de direito público. Esse desenvolvimento visa colocar em primeiro plano o direito dos usuários e o acesso à justiça e não somente a autonomia privada dos novos modelos de negócios digitais.

Ricardo Campos, docente na Goethe Universität Frankfurt am Main (Alemanha) e diretor do Instituto Legal Grounds (Brasil)

 

Participe do debate. Envie seu comentário.
0
Participe do debate. Envie seu comentário.x

Participe do debate. Envie seu comentário.
0
Participe do debate. Envie seu comentário.x

COMPARTILHAR:
Subscribe
Notify of
guest
2 Comentários
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
Ane Cajado
Ane Cajado
2 anos atrás

Muito boa a provocação. As redes sociais, na minha opinião, devem sim ser responsabilizadas por conteúdos inadequados, tanto depois que notificada por algum usuário, quando for assunto inequívoco (por exemplo post mandando tomar ivermectina pra combater o covid). Mas aqui uma outra provocação: o quanto que o modelo de negócio das redes sociais é dependente do estabelecimento de uma guerra de informação? Uma notícia falsa gera interações que gera oportunidade pra negócios.

Ana d'Angelo
Admin
Reply to  Ane Cajado
2 anos atrás

Obrigada Ane pelo comentário e pela provocação mais que pertinente!

[yarpp]