A Lei de Serviços Digitais (DSA na sigla em inglês) chegou a um importante acordo político nesta última semana e pode entrar em vigor nos próximos meses (para grandes plataformas) e em 2024 para as demais em todo o continente europeu. Fruto de muitas negociações nas diversas instâncias, este conjunto de leis traz mudanças significativas em vários aspectos. Desde a responsabilização das plataformas pelos conteúdos ilegais, desinformativos e de ódio que nelas circulam até a maior transparência dos algoritmos de recomendação, moderação de conteúdo e sobre o processo de denúncias feitas pelo usuários. (veja ponto a ponto a seguir) A Comissão Europeia tem poderes para fiscalizar e multar as empresas em até 6% do seu faturamento caso haja descumprimento das novas regras.
A professora e pesquisadora do Centro de Tecnologia e Sociedade da FGV Direito Rio, Yasmin Curzi, avalia que a legislação pode ter efeitos para além da Europa, já que algumas das novas regras mexem com a interface das grandes plataformas (acima de 45 milhões de usuários). Alguns aspectos também poderiam ser incorporados à legislação brasileira em análise no Congresso (o PL 2630 ou PL das Fake News). Sob esta ótica, a seguir, analisamos algumas das novidades trazidas pelo DSA:
Moderação de conteúdo
Responder a ordens emitidas pelo governo para remover conteúdo ou divulgar dados do usuário. Colocar muitas detalhes sobre moderação de conteúdo nos Termos de Serviço e notificar os usuários sobre as alterações feitas em seus conteúdos. Publicação de relatórios de transparência. Funcionários da Comissão da UE podem exigir a remoção de conteúdo sob regras a serem determinadas em situações de crise. As plataformas podem encerrar usuários que violam repetidamente as regras ou fazem solicitações de remoção abusivas.
Publicidade segmentada
O DSA traz novas garantias de proteção para menores de idade e limites no uso de dados sensíveis na publicidade direcionada ou segmentada. Na prática, a legislação caminha para o banimento deste tipo de anúncio, proibindo que seja feito a partir de dados como etnia, orientação sexual etc. O usuário tem o direito de escolher se deseja ou não receber este tipo de publicidade.
No Brasil, houve uma versão do PL 2630 que caminhava neste sentido, mas a pressão das plataformas forçou a um recuo e hoje este artigo menciona a Lei Geral de Proteção de Dados (LGPD) para guiar o tema, o que abre brecha para a publicidade ser feita sem o consentimento do usuário, como se desejava.
Avaliação de risco sistêmico
Plataformas online muito grandes (VLOPs), como o Facebook, serão obrigadas a realizar uma “Avaliação de Risco Sistêmico” uma vez por ano, que incluirá o risco de disseminação ou amplificação de desinformação. Os pesquisadores poderão verificar os riscos por meio de novos mecanismos de acesso a dados e escrutínio. As plataformas terão de mitigar esses riscos de forma adequada e com sucesso ou enfrentarão multas. Estas novas condutas poderão repercutir globalmente. Há espaço no PL 2630 para avanços sobre danos algorítmicos, avalia a pesquisadora da FGV.
Sistema interno de reclamações
As plataformas deverão aprimorar o sistema interno de reclamações de modo que o usuário possa contestar extrajudicialmente quando denuncia algum conteúdo ou quando a plataforma apenas ignora sua queixa. Construir mecanismos internos para que os usuários notifiquem as plataformas sobre conteúdos proibidos
Nada de isenção de mídia
A mídia deve ser igualmente responsável por desinformação que circula nas plataformas. Não há qualquer isenção de mídia prevista no DSA, um ponto polêmico e que foi alvo de debates calorosos na construção da lei.
No Brasil, o artigo 38 do PL 2630 determina a remuneração do conteúdo jornalístico pelas plataformas que dele se utilizam. O artigo é alvo de muitas críticas tanto da mídia independente quanto das plataformas, que alegam já fazer investimentos vultuosos no jornalismo. É preciso buscar uma saída mais equilibrada.
Poder de fiscalização da Comissão Europeia
A Comissão Europeia tem poderes específicos para multar e fiscalizar as empresas quanto ao DSA, podendo inclusive fazer auditoria dos algoritmos e estabelecer multas.
No Brasil, o PL 2630 tem um modelo frágil de cobrança, segundo Yasmin Curzi. O Comitê Gestor da Internet, que seria o órgão para realizar esta atribuição, não teria capacidade técnica nem poder atribuído para fiscalizar as plataformas. Até mesmo a apresentação dos relatórios de transparência ficaria inócua sem um poder constituído para definir parâmetros.
Preocupações/pontos a serem esclarecidos:
1 – A definição de “plataforma online muito grande” e o alcance das obrigações para outros serviços digitais que também espalham desinformação, como aplicativos de mensagens, permanecem vagos.
2 – A aplicação da DSA varia entre os Estados membros da União Europeia, o que pode afetar a luta contra a desinformação em diferentes países.
3 – Espera-se que as plataformas implementem processos de denúncia e apelação fáceis de usar e que capacitem as pessoas, em vez de confundi-las.
4- Um compromisso de última hora trouxe os mecanismos de busca/pesquisa para o escopo, mas em grande parte deixou para os tribunais futuros determinar quando os mecanismos de pesquisa se encaixam em uma das categorias enumeradas do DSA e, portanto, quais regras se aplicam.
5 – Somente o empoderamento coletivo da comunidade poderá garantir a total aplicação do DSA
Próximos passos
O acordo político alcançado pelo Parlamento Europeu e pelo Conselho está agora sujeito à aprovação em plenário que deve acontecer no começo de julho. O conjunto de leis deverá entrar em vigor quatro meses após sua aprovação para as grandes plataformas. Para as demais, quinze meses após aprovação ou 1 de janeiro de 2024, o que acontecer mais tarde.