#Panorama2023
Esta entrevista faz parte da série #Panorama2023, entrevistas sobre o contexto da desinformação pós eleições, impactos na sociedade e futuros possíveis, como a regulação, para combater o problema.
O debate sobre a regulação das plataformas digitais esteve presente em diversos momentos de 2022, no Brasil e no mundo. Seja na votação do Projeto de Lei (PL) 2630, cujo caráter de urgência acabou sendo rejeitado pela Câmara dos Deputados; nas ações necessárias do Poder Judiciário frente à ineficiente da autorregulação das empresas durante as eleições ou até mesmo na aprovação da Lei de Serviços Digitais pela União Europeia, ele estava lá.
Na reta final do ano, após o resultado do segundo turno, a questão ganhou publicamente dois novos entusiastas: o presidente do Tribunal Superior Eleitoral (TSE), ministro Alexandre de Moraes, quem considerou propício o momento para o diálogo sobre o tema, e o presidente Lula (PT) que sinalizou a importância da criação de uma legislação brasileira.
Para a série de entrevistas #panorama2023, o *desinformante conversou com Renata Mielli, jornalista e secretária geral do Centro de Estudos da Mídia Alternativa Barão de Itararé, sobre como autorregulação das plataformas foi insuficiente para barrar desinformação e discursos de ódio nas eleições, o que é necessário para termos uma regulação ideal e o que podemos esperar do assunto no Brasil em um futuro próximo sob o novo governo presidencial. Leia abaixo.
MATHEUS SOARES: O ano de 2022 foi marcado pelas eleições e pelas ações do judiciário e da sociedade civil organizada contra a desinformação. A autorregulação das plataformas durante esse momento foi suficiente?
RENATA MIELLI: Não, não foi suficiente. Elas não tiveram agilidade para enfrentar a enxurrada de conteúdos desinformativos, de discurso de ódio, de atentado contra a rigidez do nosso processo eleitoral, estes últimos de cunho claramente golpista. E a despeito de várias organizações da sociedade civil, que desde 2021 elaboraram notas técnicas, encaminharam recomendações para que as plataformas adotassem políticas próprias para enfrentar o cenário eleitoral brasileiro… nada disso foi de fato implementado por parte dessas empresas. Também percebemos que elas não tinham uma equipe do tamanho necessário e com o treinamento necessário para enfrentar esse cenário nacional, um cenário que não pode ficar apenas dependendo de moderação e ações de caráter automatizado e que necessita de uma robusta equipe brasileira trabalhando para conter a disseminação desse tipo de conteúdo. A gente observou que isso não teve uma resposta adequada das plataformas. Inclusive, percebemos que, mesmo depois da eleição, lives monetizadas eram feitas, convocando as pessoas para irem às estradas, bloqueando-as, irem para os quartéis, ou seja, usando as várias possibilidades que essas ferramentas oferecem ao usuário para exatamente criar uma instabilidade pós-eleição, comprometendo inclusive a democracia no Brasil. Então foi muito insuficiente esse cenário de autorregulação.
MATHEUS SOARES: E como esse contexto insuficiente desperta a necessidade de uma regulação para essas plataformas?
RENATA MIELLI: Desde 2020, nós da sociedade civil e dos setores empresariais estamos discutindo no âmbito do Poder Legislativo um projeto de lei que tinha como objetivo definir parâmetros de rede regulação para a operação dessas plataformas digitais no Brasil: o Projeto de Lei (PL) 2630. Nele, nós tínhamos várias medidas importantes, que poderiam ter sido utilizadas para balizar tanto a atuação das plataformas, quanto a atuação do Poder Judiciário. Ao não termos tido a oportunidade de votar uma lei que definisse esses parâmetros, nós tivemos um vácuo legislativo que precisou ser preenchido pela ação do Poder Judiciário, particularmente do Tribunal Superior Eleitoral, que procurou, dentro dos limites técnicos e também de pessoal, agir para enfrentar a disseminação desses conteúdos. Então, a atuação do TSE foi muito importante, mas também essa atuação se deu no limite do que era possível diante da ausência de um parâmetro legal. E isso deixa muito claro a importância de termos regras e leis aprovadas no Brasil para regular essas empresas digitais que atuam no mercado de circulação de informação no nosso país.
Isso porque, sem essas regras, as iniciativas por parte das plataformas e por parte do Poder Judiciário ficam muito fragilizadas do ponto de vista do debate público, pois uma ocorre de forma insuficiente e a outra pode ser questionada por não ter parâmetro. Então é necessário que a gente tenha uma lei, que a sociedade brasileira e o Estado brasileiro produzam regras claras, pactuadas coletivamente, a partir de um amplo debate público, definindo esses parâmetros. Isso é essencial para a própria democracia, porque não se trata mais apenas de conteúdos de desinformação, que podem levar a erros, mas conteúdos que acabam modulando o comportamento e sendo decisivos para a tomada de decisão das pessoas.
Nós precisamos de pluralidade, diversidade de vozes e conteúdos de qualidade para balizar o debate público, mas o que vimos foram grupos políticos usando essas plataformas para tentar contra a própria democracia. Portanto, a regulação dessas empresas é uma exigência democrática, para que o país possa ter estabilidade a partir do debate público, no qual caibam as diferenças de opinião, mas sempre dentro dos parâmetros de um Estado Democrático de Direito.
MATHEUS SOARES: Quais são os principais aspectos que uma regulação precisa ter para ela ser considerada satisfatória?
RENATA MIELLI: Bom, nenhuma regulação vai ser a bala de prata para resolver os problemas profundos que nós temos na esfera pública de debates, como a crise dos meios tradicionais de comunicação e o problema da universalização do acesso à Internet. No que tange especificamente à regulação das plataformas digitais, há algumas questões emergenciais que precisam ser enfrentadas. Primeiro: um conjunto de regras e obrigações para que essas plataformas sejam transparentes sobre os vários aspectos da oferta dos seus serviços, desde informações sobre o escopo e ao alcance no mercado brasileiro (quantos usuários ativos, qual o faturamento dentro do Brasil) até como elas realizam a moderação de conteúdos (quais são as motivações que definem essa atividade, qual tipo de moderação, etc.). Ou seja, um conjunto de informações para que a sociedade possa compreender como a plataforma está se comportando diante do uso indevido, da tentativa de grupos coordenados em realizar ataques, de disseminar desinformação, discurso de ódio. Transparência e informação são subsídios indispensáveis para uma boa regulação e para ajustes numa regulação posterior,
Além disso, transparência sobre uso de sistemas automatizados, com uma possibilidade de auditoria sobre os algoritmos que essas empresas utilizam para definir parâmetros de escala e de distribuição dos seus conteúdos, porque quando a gente pensa em moderação, a gente pensa apenas na exclusão ou em mecanismos para reduzir o alcance, mas quando uma plataforma ativa o seu algoritmo para ampliar o alcance de determinados conteúdos, por critérios que nos são totalmente opacos, isso também é uma forma de moderação, porque ela está dando mais visibilidade a um conteúdo em detrimento de outro. Transparência sobre o uso de poder econômico para impulsionamento, publicidade, então um dos aspectos centrais de uma regulação, sobre empresas que atuam de forma totalmente opaca perante a sociedade, são um conjunto de mecanismos de transparência.
Um segundo conjunto de medidas são aquelas destinadas a dar mais possibilidade de empoderamento para o usuário poder recorrer de decisões que a plataforma aplica sobre seus conteúdos e suas contas. Hoje, a relação entre o usuário e a plataforma é profundamente assimétrica, pois ele não tem praticamente nenhuma possibilidade de contestar uma moderação, uma exclusão de conteúdos ou uma sanção à sua conta. Dessa forma, é preciso que a gente crie regras bastante claras sobre o que nós temos chamado de um devido processo legal na atuação das plataformas sobre contas e conteúdos de terceiros. Assim, os usuários precisam ser devidamente informados sobre os motivos que levaram àquela sanção ou exclusão de conteúdo para que ele possa, com base nessa explicação, solicitar uma contestação ou revisão. A plataforma também precisa ter um prazo para responder às contestações, ou seja, é preciso ter um processo, porque por mais que nós estejamos falando de empresas privadas, elas cumprem hoje um papel na esfera pública de debates. É ali que centenas de milhares de milhões de pessoas se expressam e é ali onde essas pessoas buscam informação. Ou seja, essa explicação é um mecanismo democrático de controle sobre medidas discricionárias tomadas pelas plataformas.
Também precisamos olhar para como essas plataformas elaboram seus termos de uso, suas políticas de privacidade, pois isso precisa estar em acordo com a legislação brasileira. Então, esses são alguns dos exemplos de medidas que uma regulação das plataformas digitais precisa ter.
MATHEUS SOARES: Em novembro, entrou em vigor na Europa a Lei de Serviços Digitais (a DSA em inglês). Como está acontecendo essa regulação em outros países?
RENATA MIELLI: A DSA, que entrou em vigência agora na Europa e que vai procurar regular no mercado europeu a atuação dessas plataformas, é uma legislação que se torna referência para o debate de diversos países. Muito do que nós já estávamos discutindo desde 2020 aqui no PL 2630, por exemplo, também estão presentes no âmbito da lei da União Europeia. Cada vez mais, os grandes acontecimentos que trouxeram a público os problemas que essas plataformas acabam acarretando para debates legislativos e processos políticos (aqui me refiro ao escândalo Cambridge Analytica, da eleição do Trump, do o Brexit e de tantas outras questões) fizeram com que os países percebessem a urgência e a necessidade de criar regulação para se defender do uso abusivo e da ausência completa de regras para essas empresas, as quais possuem hoje um poder econômico e político maior do que muitas nações.
Parte dessa regulação esbarra em problemas objetivos de jurisdição internacional, principalmente as questões relacionadas à concentração econômica, à falta de competitividade e à aquisição que essas empresas acabam fazendo de empresas menores. Os países têm mais dificuldade de enfrentar esses pontos pois estamos falando de empresas estadunidenses. Mas, se essas empresas atuam no mercado brasileiro, elas precisam responder à legislação nacional. Então, o DSA e outras leis que discutem outros aspectos (como a lei australiana e a lei canadense) são um conjunto de medidas que os países começam a discutir sobre essas empresas que atuam e lucram nos mercados nacionais, mas não pagam impostos nos países e não respondem à legislação desses países. Há em curso no mundo uma percepção de que não é mais possível manter empresas com tamanho poder de mercado, com tamanho poder econômico, e que acaba lhes conferindo também um grande poder político sem qualquer regulação.
MATHEUS SOARES: O debate sobre regulação, bem como sobre a moderação do conteúdo, vem com muitas críticas na defesa da “liberdade de expressão”, utilizando inclusive o argumento de censura. Como podemos nos afastar desse tipo de argumento que geralmente é levantado em torno desse debate?
RENATA MIELLI: Nós estamos vivendo um momento muito sensível do debate sobre liberdade de expressão, porque os setores conservadores, reacionários, de extrema-direita, não só no Brasil, mas no mundo, acabam se embandeirando da liberdade de expressão como escudo para promover discursos que não estão amparados por ela. A liberdade de expressão não é guarda-chuva para o cometimento de crimes de racismo, de homofobia, muito menos para disseminar discurso de ódio que possam criar riscos a qualquer tipo de setor social, tampouco abriga desinformação e mentira que têm o objetivo claro de manipular, interferir no debate público sobre qualquer natureza. Nós vimos isso, por exemplo, no caso dos debates envolvendo a pandemia, que podem trazer riscos graves à população no mundo inteiro. Portanto, a liberdade de expressão é um direito fundamental, mas que possui limites e os limites estão dados por parâmetros democráticos e cada país tem seu parâmetro.
Dessa forma, garantir que o debate público observe os parâmetros que estão definidos para o exercício da liberdade de expressão não é censura. O argumento da censura é usado por aqueles que justamente não querem qualquer tipo de regulação para poder continuar exercendo o seu poder político e econômico. Em sociedades democráticas, a regulação está a serviço da democracia e, portanto, a moderação de conteúdo é um mecanismo que está nesse escopo de debate – como você criar regras, pactuadas de forma pública e ampla, para coibir manifestações que atentem contra a democracia, que atentem contra a dignidade humana e que atentem contra aquilo que cada país define como seus parâmetros para a liberdade de expressão. Então eu acho que há um uso malicioso do termo moderação para compará-lo à censura. Quando nós vivemos em sociedade, o direito individual não está acima do direito coletivo. A sociedade, as regras em sociedade, não me reservam o direito de sair por aí ofendendo as pessoas, xingando as pessoas em aspectos que possam envolver racismo, homofobia, lgbtfobia, então eu não posso fazer isso nas redes sociais também.
Esse é um debate delicado, por isso essa moderação de conteúdo não pode ficar ao sabor das plataformas e nem ao sabor de governos ou do Judiciário, ele precisa estar amparado em parâmetros públicos, que precisam ser definidos de forma muito cautelosa, porque, claro, há uma linha tênue. Porém, nós precisamos enfrentar essa discussão na perspectiva de que promover moderação de conteúdo num ambiente no qual cada indivíduo tem o potencial de produzir o que quiser é extremamente necessário, porque ao contrário talvez do que os homens e mulheres dos séculos passados pudessem imaginar, garantir que cada pessoa individualmente possa se expressar numa arena pública de debates, como essas plataformas digitais, não melhorou a liberdade de expressão, infelizmente. Nós produzimos aí um ambiente no qual você tem discurso de ódio, no qual você tem ataques, violências, ataques coordenados contra setores vulnerabilizados, ou por exemplo contra jornalistas. Então as plataformas não podem permitir esse tipo de coisa e moderar isso não é violar a liberdade de expressão de quem está promovendo violência contra um jornalista, muito pelo contrário. Então eu acho que se a gente qualifica o debate público sobre isso fica difícil as pessoas argumentarem que moderar conteúdos é censura.
MATHEUS SOARES: Com o novo governo, o que podemos esperar do assunto nos próximos anos? É possível termos uma regulação brasileira em um futuro próximo?
RENATA MIELLI: Eu acredito que sim. Nós quase conseguimos aprovar o PL 2630, que tratava sobre esse assunto e que ainda está tramitando na Câmara dos Deputados. Portanto, o Brasil esteve próximo, antes da eleição, de ter uma legislação que dava um primeiro passo na regulação de plataformas. Como eu disse anteriormente, não há uma bala de prata, as tecnologias se modificam muito rapidamente e nós precisamos ter também a compreensão de que uma primeira legislação não é a última. Ela precisa ser atualizada e ajustada ao longo da sua aplicação. Acho que o governo Lula tem bastante a compreensão, a partir do que a gente tem ouvido do próprio presidente, de que é preciso criar um espaço de debate mais democrático, com mais diversidade, com mais pluralidade. Então eu tenho bastante otimismo de que a gente consiga enfrentar um debate que não é só nacional, é um debate internacional; e o Brasil, como sempre, será um país que estará entre a vanguarda, entre os pioneiros, para regular esses fenômenos novos advindos das novas tecnologias, quando aprovamos o Marco Civil da Internet.