Traduzimos e destacamos os principais pontos do Guia do Usuário da Lei de Serviços Digitais da União Europeia (DSA) relacionados à desinformação. O Guia foi produzido pela organização EU DisinfoLab. A legislação está praticamente pronta para entrar em vigor no velho mundo, mas ainda vai precisar de uma aprovação formal do Parlamento Europeu prevista para o mês de julho. Observando as mudanças que a lei promove em relação à transparência e responsabilidade das plataformas, podemos vislumbrar um cenário, quem sabe, parecido aqui no Brasil para um ambiente digital mais saudável. Especialmente no que diz respeito ao empoderamento dos usuários para ter acesso aos dados das empresas que tanto utilizam quanto para recorrer em casos de punições, comportamentos ou conteúdos suspeitos de desinformar.
O que é a Lei dos Serviços Digitais (DSA)?
A Lei de Serviços Digitais (DSA) é uma lei pioneira sobre segurança na Internet e responsabilidade das plataformas. Com este regulamento, as plataformas serão responsabilizadas pelo seu papel na disseminação da desinformação, entre outros danos online, e serão obrigadas a partilhar mais informações com os pesquisadores e usuários.
Como a Lei dos Serviços Digitais se aplica?
A DSA regula os serviços digitais que operam no mercado da UE ou que prestam serviços aos utilizadores da UE. O regulamento estabelece obrigações diferentes de acordo com o porte das empresas. O máximo de obrigações é aplicável a plataformas de grande porte (VLOPs) e a buscadores de grande porte (VLOSEs), com mais de 45 milhões de usuários na União Europeia. Isto significa que os elementos mais impactantes da lei se aplicam a plataformas como Facebook, YouTube, TikTok, Twitter e serviços como o Google.
.
Qual é a diferença entre conteúdo legal e ilegal, e por que isso importa para a DSA?
A DSA diferencia conteúdo legal e conteúdo ilegal de acordo com a legislação da UE e as leis dos Estados Membros. A desinformação entra aqui numa “zona cinzenta” porque alguns elementos das campanhas de desinformação podem ser ilegais em alguns estados membros como, por exemplo, assédio ou difamação. No entanto, geralmente, a desinformação é entendida como prejudicial, mas legal, como o caso da difusão de teorias conspiratórias.
A DSA estabelece obrigações para a forma como as empresas lidam com conteúdo ilegal e estabelece obrigações no caso de conteúdos que apresentem riscos sociais e violações aos termos de serviço.
Por que o DSA é útil para mim (cidadão europeu)?
Para aqueles que denunciam a desinformação e muitas vezes não recebem nenhuma resposta das plataformas, o Artigo 17 da DSA garante que a decisão de não agir seja vista como uma decisão de moderação de conteúdo e possa ser contestada. Este tem sido um dos elementos-chave que o EU DisinfoLab defendeu na DSA, e estamos felizes em dizer que esta é uma vitória para nós e para toda a comunidade que trabalha para inibir a desinformação.
O que posso fazer se eu reportar desinformação e nada acontecer?
Você pode usar o sistema interno de tratamento de reclamações previsto na DSA (Artigo 17). Todas as plataformas online terão de ter um sistema que permita aos utilizadores queixarem-se das decisões de moderação de conteúdo das plataformas, tanto em casos de remoção como nos casos em que as empresas não agem sobre os conteúdos reportados. As plataformas terão de adaptar os mecanismos existentes, ou criar mecanismos que permitam estas queixas.
Por que isso é útil para mim?
Como a desinformação não é geralmente um conteúdo ilegal e normalmente não está definida nas leis nacionais, é difícil você levar o seu problema a um tribunal nacional. A resolução extrajudicial de litígios é a melhor opção para contestar a decisão da plataforma caso você não fique satisfeito com o resultado do procedimento de reclamação interna inicial (Artigo 17). Este artigo dá ferramentas adicionais para recorrer e procurar reparação.
E se eu não estiver satisfeito com o resultado da minha queixa? Há alguma coisa que eu possa fazer para contestar esta decisão?
Sim, você pode. Se você relatou uma peça de desinformação, se ela não foi removida ou se você acredita que não foi moderada adequadamente, e o resultado da reclamação sob o artigo 17 não é satisfatório, você pode contestar a decisão da plataforma através de mais uma ferramenta: Resolução extrajudicial de litígios, prevista no Artigo 18. O artigo permite a criação de organismos independentes em diferentes Estados Membros através dos quais você poderia resolver litígios sem recorrer a um tribunal oficial. Estes organismos seriam certificados pelos Coordenadores dos Serviços Digitais (DSC) dos Estados Membros.
Há mais alguém que me possa ajudar a defender os meus direitos sob a DSA? Posso ajudar alguém a defender os seus?
Sim, existe uma disposição de representação na DSA (Artigo 68) que lhe dá o direito de mandatar um órgão, organização ou associação para exercer os seus direitos previstos na DSA em seu nome (por exemplo, nos termos dos Artigos 17 e 18). Além disso, as queixas apresentadas em nome dos usuários através dos mecanismos referidos no Artigo 17 são processadas e decididas com prioridade. As organizações que pretendam assumir este papel devem ser organizações sem fins lucrativos, estabelecidas num Estado-Membro, e os seus estatutos devem demonstrar interesse legítimo em assegurar o cumprimento da DSA.
O que posso fazer para ajudar a prevenir a desinformação ou reduzir a sua propagação em primeiro lugar?
Os VLOPs e VLOSEs terão de realizar avaliações de risco e conceber medidas adequadas de mitigação de risco no âmbito da DSA (artigos 26 e 27) para fornecer serviços mais seguros aos usuários, incluindo a avaliação e mitigação de riscos para desinformação. A avaliação de risco sistêmico precisará analisar como seus serviços contribuem para a disseminação da desinformação, inclusive através de sistemas algorítmicos, sistemas de moderação de conteúdo, termos e condições aplicáveis, publicidade e práticas de coleta de dados.
Uma atenção especial deve ser dada ao comportamento inautêntico. Também estabelece um requisito para os usuários rotularem “deepfakes”, obrigando as plataformas a darem aos usuários uma ferramenta para indicar que o seu conteúdo é manipulado sinteticamente para enganar. Se as plataformas não cumprirem com esta ou qualquer outra obrigação da DSA, elas enfrentarão multas de até 6% do seu faturamento anual mundial e 1% se fornecerem informações incorretas ou enganosas.
O que diz a DSA sobre os anúncios?
Não será mais permitido que as plataformas publiquem anúncios baseados no comportamento de menores ou baseados no perfil de categorias sensíveis de dados pessoais para qualquer pessoa (como etnia, opiniões políticas ou orientação sexual). Eles terão de informar os usuários quando forem alvo de um anúncio, quem pagou pelo anúncio, quando o conteúdo for patrocinado e quando os influenciadores estiverem promovendo mensagens comerciais.
As plataformas devem criar repositórios de anúncios, permitindo aos investigadores, grupos da sociedade civil e reguladores inspecionar a colocação e a segmentação de anúncios. E devem avaliar se os seus sistemas de publicidade são manipulados ou contribuem de alguma forma para os riscos sociais, por exemplo, o risco de promover ou financiar a desinformação.
O que aconteceu com a “isenção de mídia” na DSA?
Houve tentativas de excluir o conteúdo de mídia da moderação de conteúdo. Isso teria proporcionado proteção legal a todos os conteúdos publicados por uma “mídia”, protegendo-a contra quaisquer esforços de moderação de conteúdo por plataformas.
A mídia tinha uma definição muito vaga no texto, então isso teria potencialmente protegido muitos atores da moderação do conteúdo e aberto as portas para a desinformação.
Estas tentativas foram rejeitadas pelo Parlamento Europeu e pelo Conselho da UE graças ao trabalho da comunidade que trabalha contra a desinformação e pelos direitos digitais.
Que novos dados estarão disponíveis?
A DSA irá criar conjuntos de dados importantes. Os especialistas em desinformação poderão utilizar os novos dados criados a partir das obrigações de transparência para assegurar que as plataformas estão cumprindo a lei e para compreender melhor os desafios que existem. Entre as obrigações que deverão constar nos relatórios sobre moderação de conteúdo estão: número de notificações recebidas e respectivas ações, tempo médio para a adoção de medidas, como se deu o uso de ferramentas automatizadas, número de suspensões e motivos relacionados, número de litígios. Além disso, as big techs terão novas obrigações de transparência em relação a anúncios em tempo real e aos sistemas de recomendação. Pesquisadores aprovados pela figura do Coordenador de Serviço Digital, em cada Estado membro, terão acesso aos dados solicitados com fundamentação.
Quem é responsável por fazer cumprir a DSA?
A DSA tem uma estrutura de execução em dois níveis. Os VLOPs e VLOSEs serão supervisionados pela Comissão Europeia. Isto destina-se a assegurar uma forte aplicação da lei sobre as plataformas de maior porte, mesmo que não haja vontade política ou recursos suficientes em cada Estado Membro.
Então, todos os outros serviços serão supervisionados pelos reguladores nomeados em nível nacional. Cada Estado Membro criará um Coordenador de Serviços Digitais (DSC) que será a principal entidade responsável pela supervisão da regulação no país. Os Estados Membros podem designar vários reguladores para supervisionar diferentes aspectos da regulação, mas precisam de um DSC.
Quais são os próximos passos para a aplicação do regulamento?
O texto acordado está agora sujeito à aprovação formal do Parlamento e do Conselho. Será aplicável em toda União Europeia quinze meses após a “entrada em vigor” ou a partir de 1 de janeiro de 2024, o que ocorrer mais tarde. No entanto, para as big techs o texto entra em vigor quatro meses após a aprovação formal.