Início 9 destaques 9 Pontos de destaque do PL 2630 comentados por pesquisadores e ativistas

Últimas notícias

Pexels

abr 19, 2023 | destaques, notícias

Pontos de destaque do PL 2630 comentados por pesquisadores e ativistas

Pexels
COMPARTILHAR:

O novo texto do Projeto de Lei 2630, previsto para ser votado no Congresso na próxima semana e incluindo contribuições do Executivo, Judiciário e sociedade civil, circulou em grupos de pesquisadores e organizações envolvidas com o tema da desinformação. O *desinformante teve acesso a esta versão e chamou pesquisadores e ativistas para comentarem as principais normas que deverão ser estabelecidas pela legislação.

Responsabilização das plataformas

A lei instaura este paradigma de que as plataformas são sim responsáveis pelos conteúdos que os usuários postam quando estes conteúdos causarem danos às pessoas, à sociedade ou quando estas postagens tiverem potencial de causar danos também. Para isso, a lei estabelece uma série de mecanismos de transparência, prestação de contas e atenuação destes riscos. 

Dever de cuidado 

. As plataformas devem agir rapidamente e preventivamente, quando notificadas, nos seguintes casos: crimes de abolição violenta do Estado Democrático de Direito e de golpe de estado, atos de terrorismo e preparatórios de terrorismo, crime de induzimento, instigação ou auxílio a suicídio ou a automutilação, crimes contra crianças e adolescentes,de incitação à prática de crimes contra crianças e adolescentes ou apologia de fato criminoso ou autor de crimes contra crianças e adolescentes, crimes discriminação ou preconceito e violência de gênero, infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medidas em situação de emergência em saúde pública. 

O tópico, de acordo com Viviane Tavares, coordenadora executiva do Intervozes, foi um dos pontos de melhoramento no texto, já que estabelece uma melhor caracterização do dever de cuidado, trabalhando os perigos e riscos de abuso que podem existir a partir da responsabilização da plataforma na exclusão e moderação de conteúdo. Apesar disso, representantes de organizações ambientais alertam para a falta de indicação clara dos riscos ambientais decorrentes de desinformação nas redes e sobre os quais as plataformas deveriam se responsabilizar. Também é possível melhorar o sistema de dever de cuidado em relação aos sistemas algorítmicos de recomendação, focando menos nos conteúdos individualmente e mais em como a plataforma os recomenda.

Riscos sistêmicos 

As empresas vão precisar avaliar os riscos de suas ferramentas, de lançamentos de produtos ou mesmo dos próprios algoritmos e terão de fazer um relatório público anual  sobre estes riscos e medidas para atenuá-los. 

 A lei foca em alguns temas principais para serem levados em conta como: conteúdos ilícitos, proteção de crianças e adolescentes, danos ao coletivo e aos direitos fundamentais, violência de gênero e saúde pública, danos contra eleições e temas cívicos. 

Entre as medidas que podem adotar estão rapidez na moderação de conteúdos, remoção rápida respeitando o devido processo. 

Poderia haver uma indicação no objetivo da lei, segundo Lori Regattieri, Senior Fellow Mozilla Foundation, para o incentivo a um ambiente de fomento a informação de consensos científicos sobre temas sensíveis como ciência do clima, florestais, e saúde pública, promovendo assim não só o combate à desinformação, mas também o consumo de informação confiável

Entidade Autônoma de Supervisão

Ainda precisará ser regulamentada, mas terá muitas responsabilidades, como: Quando configurado um risco iminente de danos para o coletivo, esta entidade poderá instaurar um protocolo de segurança por até 30 dias. 

Neste protocolo, as empresas de redes sociais poderão ser responsabilizadas civilmente pelos danos decorrentes de conteúdos de terceiros se for comprovado que as empresas já sabiam dessa possibilidade e não fizeram nada para conter as consequências. 

Os conteúdos removidos em razão deste protocolo de segurança deverão ser guardados pelos provedores para análise pela entidade autônoma de supervisão. 

Enquanto essa entidade não é regulamentada, muitas atividades serão feitas pelo Comitê Gestor da Internet (CGI) como realização de estudos, pareceres e estratégias, debates para aprofundar o entendimento sobre desinformação e propor saídas para o seu combate. Também caberá ao CGI elaborar apresentar diretrizes para a elaboração de código de conduta para os provedores de redes sociais, ferramentas de busca e mensageria instantânea. 

Este código de conduta deverá ser público e ter indicadores qualitativos e quantitativos com o objetivo do cumprimento da lei 

De acordo com Laura Moraes, coordenadora sênior da Avaaz Brasil, a indicação da criação de uma entidade autônoma reguladora vem num momento político oportuno, sinalizando ao governo a importância de termos um órgão do tipo. Apesar disso, as atribuições de responsabilidades ao Comitê Gestor da Internet no Brasil (CGI.br) levantaram questionamentos. “Traz uma certa confusão sobre o papel do CGI, não imagino que essa seja a melhor entidade para se responsabilizar, por exemplo, por conteúdos de desinformação”, afirmou Viviane Tavares.

Da relação com os usuários 

Os provedores deverão criar mecanismos que permitam a qualquer usuário notificá-los da presença, em seus serviços, de conteúdos potencialmente ilegais, de forma justificada.

Moderação de conteúdo 

As empresas vão precisar notificar o usuário sobre aplicação de medidas previstas nos termos de uso, como moderação de conteúdo, e dar a possibilidade de o usuário recorrer daquela medida, com canal próprio para o pedido de revisão. 

De modo geral, a lei exige mais transparência para as medidas que as plataformas tomam por conta própria e que atingem o usuário. 

Transparência 

Os termos de uso das redes sociais, aplicativos e buscadores devem estar em português, serem claros e didáticos.  Nestes termos de uso deve constar: conteúdos proibidos naquela rede, faixa etária adequada, potenciais riscos de uso, canais de reclamação para o usuário, descrição geral do funcionamento dos algoritmos, entre outras medidas de transparência (por que certos conteúdos são sugeridos).  

Os provedores devem produzir relatórios semestrais de transparência, mas a autoridade autônoma pode pedir relatórios com mais frequência em casos específicos. 

Mais uma medida é a exigência de auditoria externa anual para avaliar o cumprimento da lei, observando especialmente se foi eficiente na atenuação dos riscos sistêmicos, no dever de cuidado.

A adição da auditoria, uma das recomendações feitas pela Avaaz, é um ponto importante, segundo Laura Moraes, para avançar na garantia de um ambiente digital democrático e seguro. Ela sugere que esses dados fornecidos pelas empresas devem ser públicos para pesquisadores e sociedade civil, além de serem acessíveis aos auditores de forma direta, sem manipulação prévia dos provedores de serviços de Internet. Um ponto de alerta, porém, é a manutenção dos mecanismos de transparência que foram dispostos em anexo e não como parte estruturante do texto.

Acesso à pesquisa 

As empresas devem dar acesso gratuito para os pesquisadores que estejam trabalhando com algoritmos usados na moderação de contas e de conteúdos, priorização, segmentação, recomendação e exibição de conteúdo, publicidade de plataforma e impulsionamento, e dados suficientes sobre como esses algoritmos afetam o conteúdo visualizado pelos usuários.

Publicidade

Os provedores precisam identificar o que é publicidade nos conteúdos que circulam pelas suas redes e prover mecanismos de transparência sobre perfilamento, o uso dos dados do usuário. 

No caso de propaganda política precisa haver uma biblioteca de anúncios com valores, tempo de exibição, identificação dos anunciantes, entre outros detalhes. 

Pesquisas realizadas pelo Netlab da UFRJ durante as eleições apontaram que de 4.350 propagandas políticas exibidas no Google,  3.098 (71,21%), não tinham o CNPJ do anunciante (ou este estava ilegível), e/ou a expressão “propaganda eleitoral” estava ausente. 

YouTube e Facebook permitiram anúncios com informações completamente falsas sobre a eleição presidencial brasileira, apesar de repetidos avisos, de acordo com experimento da organização Global Witness.

Remuneração do jornalismo 

As plataformas deverão remunerar empresas jornalísticas pelo conteúdo noticioso que circula nas redes sociais. A negociação é livre entre as empresas e está garantida a negociação coletiva. Modelo e prazo de remuneração ainda serão regulamentados. 

Podem receber recursos empresas jornalísticas com pelo menos 2 anos de existência que produzam conteúdo jornalístico original de forma regular, organizada, profissionalmente e que tenha endereço físico e editor responsável no Brasil.

Em nota, a Associação de Jornalismo Digital (Ajor) e mais dez entidades representantes do jornalismo se manifestaram favoráveis ao texto do projeto de lei que determina a remuneração do jornalismo. “ A remuneração da atividade jornalística por plataformas de tecnologia pode ser um elemento decisivo para a formação de um ecossistema jornalístico amplo, diverso e saudável, capaz de se opor à difusão da desinformação e dos discursos de ódio”, diz a nota. 

Contas de interesse público 

Contas que a lei chama de interesse público – de políticos da administração direta e indireta e de políticos em geral –  têm um tratamento especial na lei. Elas não podem restringir, por exemplo, a visualização de suas publicações por outras contas. 

Quando estas contas forem alvo de alguma intervenção ativa ilícita ou abusiva por parte das plataformas, caberá ação judicial para sua restauração de forma rápida se comprovada a operação em conformidade com direitos fundamentais e com os princípios da legalidade. 

Quando as plataformas precisarem excluir algum conteúdo dessas contas por infração aos termos de uso, deverão publicar, na própria conta do usuário, uma notificação pública para explicar porque o conteúdo foi removido. 

A imunidade parlamentar material estende-se às plataformas mantidas pelos provedores de aplicação de redes sociais.

Ponto polêmico, representantes da sociedade civil consideram que este tópico cria duas “classes” de cidadãos sujeitos à lei. A volta da imunidade parlamentar, que tinha sido excluída em outras versões, foi vista com bastante crítica. Viviane Tavares, coordenadora-executiva do Intervozes, explica que pesquisas mostram como os parlamentares eleitos são propagadores de desinformação, de forma que “tratar essas contas como institucionais, que não poderiam ser penalizadas, é um erro”.

Educação midiática 

Explicita mais obrigações para o Estado em relação ao dever constitucional na prestação da educação e ainda mais agora que já foi sancionada a Lei de Educação Digital. Falta regulamentação deste tópico, mas a lei avança predizendo diretrizes necessárias como o desenvolvimento do pensamento crítico, da capacidade de pesquisa, da ética e do respeito ao pluralismo de opiniões; o desenvolvimento de habilidades para argumentação, reflexão e análise crítica; a garantia e o ensino acerca do direito ao acesso à informação; a conscientização quanto ao papel da privacidade, da proteção de dados pessoais e da autodeterminação informativa, bem como quanto aos meios necessários para garanti-las;  a célere promoção da alfabetização digital; e  a formação de profissionais de ensino para esta nova realidade. 

Educação midiática já está prevista na Base Curricular Nacional nos últimos anos do ensino fundamental e no ensino médio. No entanto, a aplicação não é sistemática por diversas razões entre elas, a situação precária das escolas públicas. 

Capítulo IX – Crianças e Adolescentes 

Este capítulo provavelmente foi incluído pelo relator deputado Orlando Silva (PCdoB-SP) após as ameaças de ataques a escolas e crianças, em período recente. Determina que os provedores criem mecanismos para impedir o uso dos serviços por crianças e adolescentes, sempre que não forem próprios para aquela idade. 

Também proíbe a coleta e tratamento dos dados pessoais de crianças e adolescentes. 

No parecer “Dever geral de cuidado das plataformas diante de crianças e adolescentes”, feito a pedido do Instituto Alana, a advogada e professora Ana Frazão avança no que prevê a lei e afirma que as plataformas digitais devem responder por danos decorrentes de violações aos direitos de crianças e adolescentes em relação a suas ações e omissões. Inclusive no que diz respeito ao design da plataforma e a todas as formas de ingerência e influência no fluxo informacional, as plataformas respondem por ato próprio. “Mesmo em relação a conteúdos de terceiros, as plataformas digitais responderão por violações aos direitos de crianças e adolescentes, quando verificado o descumprimento dos deveres de cuidado exigíveis na hipótese, de acordo com um parâmetro de razoabilidade, que deverá levar em consideração critérios como a previsibilidade do risco e a gravidade do dano, dentre outros, diante da tutela especial e prioritária que a Constituição e o ECA asseguram a tais indivíduos”, afirma Frazão.  

Aplicativos de mensagens 

A lei criou obrigações para que as empresas possam, ao máximo, limitar a  distribuição massiva de conteúdos e mídias e tentem preservar o caráter interpessoal das mensagens. 

Listas de transmissão, por exemplo, só podem ser encaminhadas e recebidas por pessoas que estejam nas listas de contatos de remetentes e destinatários. 

Determina a criação de um mecanismo para que o usuário possa ser consultado se quer ou não entrar em grupo ou lista. 

Prevê a criação de um código de conduta que vai estabelecer obrigações de os provedores de serviços de mensageria instantânea tomarem outras medidas preventivas para conter distribuição massiva de conteúdo. 

Só ordem judicial pode determinar a guarda e compartilhamento de dados para identificar conta denunciada por outros usuários em relação a conteúdos ilícitos. 

Na primeira versão do PL havia mais rigor para com as empresas de mensagens, mas organizações de proteção de dados alertaram para possíveis interferências em questões de privacidade. Os apps de mensageria são fundamentais no espalhamento da desinformação. Há dúvidas se estas medidas serão suficientes para conter esse fluxo. 

Das Multas

Decisão judicial que determinar remoção de conteúdo ilícito deve ser cumprida em 24 horas. 

A multa vai de R$ 50 mil a R$ 1 milhão por hora de descumprimento após a notificação. A multa pode ser triplicada se for conteúdo monetizado, impulsionado ou patrocinado. No período eleitoral, a Justiça Eleitoral pode ordenar prazos mais curtos para cumprimento das decisões. 

Os provedores devem guardar por um ano dados ou conteúdo removido em cumprimento da lei. 

Sanções administrativas 

A entidade autônoma de supervisão é que vai determinar as sanções e observar o cumprimento das regras. 

As sanções serão advertência, com prazo para medidas corretivas, multa diária, multa simples, de até 10% (dez por cento) do faturamento do grupo no Brasil ou, ausente o faturamento, multa de R$ 10 até R$ 1.000 por usuário cadastrado limitada, no total, a R$ 50 milhões por infração. As sanções vão até  suspensão temporária das atividades e proibição de exercício das atividades.

Sobre este ponto, Laura Moraes considera um grande avanço, mostrando a importância de uma entidade autônoma supervisora que tem tempo hábil para conseguir aplicar essas medidas. “Por isso, entendemos que é fundamental que o governo crie um órgão regulador independente que tenha capacidade técnica de poder de sanção”, afirmou.

Do crime em espécie

O artigo 54 da lei estabelece como crime promover ou financiar, pessoalmente ou por meio de terceiros, mediante uso de conta automatizada e outros meios ou expedientes não fornecidos diretamente pelo provedor de aplicações de internet, divulgação em massa de mensagens que contenham fato que sabe inverídico, que seja capaz de comprometer a higidez do processo eleitoral ou que possa causar dano à integridade física e seja passível de sanção criminal.

Pena: reclusão, de 1(um) a 3 (três) anos e multa.

Dos Prazos 

Todos os artigos entram em vigor logo após a sanção da lei, exceto: 

Em 12 meses (1 ano):

– As obrigações de análise e atenuação de riscos sistêmicos

– Os relatórios de transparência

Em 90 dias (3 meses):

– As obrigações quando houver risco iminente de danos aos direitos fundamentais, especificamente sobre a instauração de protocolo de segurança e elaboração de relatórios sobre ações de intervenção em conteúdos.

– Os deveres de transparência, mais especificamente sobre a disponibilização de informações claras sobre os termos de uso das plataformas.

– Os deveres sobre publicidade digital como a identificação de publicidade e conteúdos impulsionados mediante pagamento, a requisição de identidade dos anunciantes (sejam eles pessoas físicas ou jurídicas) e a disponibilização de histórico de conteúdos impulsionados.

– Diretrizes sobre os conteúdos jornalísticos.

– Obrigação de transparência das entidades e órgãos públicos sobre contratação de serviços publicitários ou de impulsionamento por meio da Internet, como informações sobre o valor de contrato, o conteúdo da campanha e critérios de definição de público-alvo.

– As diretrizes para educação midiática, para a proteção de crianças e adolescentes, para provedores de serviços de mensageria instantânea.

COMPARTILHAR:
0
Would love your thoughts, please comment.x