Início 9 Destaques 9 Estudo receita “remédios” para aumentar transparência das plataformas 

Últimas notícias

Unsplash

dez 8, 2022 | Destaques, Notícias

Estudo receita “remédios” para aumentar transparência das plataformas 

Unsplash
COMPARTILHAR:

Para garantir que os procedimentos de moderação de conteúdo e os dados sobre a disseminação da desinformação, discurso de ódio e outros conteúdos indesejáveis possam ser verificados, é essencial garantir a transparência das plataformas digitais sobre seu próprio funcionamento. Esta é a preocupação que guia um estudo recém-publicado pelos pesquisadores Luca Belli, Yasmin Curzi, Clara Almeida, Natália Couto, Roxana Radu, Rolf H. Weber e Ian Brown.  

Em busca de significativa e interoperável transparência para plataformas digitais”, em tradução livre, os pesquisadores partem da constatação da importância que as plataformas digitais alcançaram, principalmente após a pandemia de Covid-19, obtendo um papel crucial como intermediárias de discursos e também de oferta de serviços. “A regulamentação limitada que até muito recentemente enquadrou essas plataformas – ou mesmo a ausência dela em muitas jurisdições – permitiu que esses intermediários se tornassem reguladores privados dessas atividades”, destaca o estudo, ressaltando ainda que as decisões privadas tomadas pelas grandes plataformas, sem legitimidade democrática, afetam um número enorme de indivíduos, empresas e até mesmo órgãos públicos.

Frente a esse cenário, os pesquisadores apontam a necessidade da construção de uma política de transparência para que o público possa compreender o funcionamento dessas plataformas e seus mecanismos de moderação. 

Yasmin Curzi, pesquisadora do Centro de Tecnologia e Sociedade da FGV-Rio e uma das autoras do estudo, explica que a interoperabilidade é a capacidade técnica de transferir dados e outras informações entre sistemas ou aplicativos. “No caso das plataformas digitais, acreditamos que a interoperabilidade pode oferecer uma solução não apenas para problemas de concorrência – já que, em essência, a interoperabilidade diminui a possibilidade de monopólios -, mas também pode ser um remédio para a falta de transparência”, explica Curzi.

“Por exemplo, a interoperabilidade pode ser aplicada para que as APIs das plataformas sejam mais facilmente monitoradas, ampliando o acesso à informação adequada para pesquisa e outras investigações empíricas. Outra possibilidade é que as empresas possam ampliar substancialmente regras e práticas interoperáveis na moderação de conteúdo, compartilhando suas metodologias para moderação de conteúdo e o desenvolvimento de relatórios mais uniformes”, diz a pesquisadora.

A transparência significativa não deve ser medida em termos quantitativos, mas em termos da qualidade de informação. “Relatórios sobre as atividades das plataformas na remoção de conteúdos são menos importantes do que informações adequadas sobre quantas pessoas e equipes e quanto há de investimento na moderação nos países em que as plataformas atuam”, exemplifica Yasmin Curzi.

Outro aspecto relevante, muitas vezes deixado de lado nos relatórios das plataformas, é o funcionamento dos algoritmos de moderação de conteúdo. “Compreender o funcionamento dos sistemas de recomendação algorítmica é fundamental para que possamos atribuir a devida responsabilidade corporativa, sobretudo quando a recomendação de conteúdos odiosos tem implicações para usuários e para a democracia – especialmente quando as plataformas lucram em decorrência da visualização e do compartilhamento de conteúdo nocivo” alerta o texto.

Os algoritmos de recomendação de conteúdo a partir de perfilhamento (obtenção de dados via perfil do usuários) permanecem sob “sigilo comercial”, ainda que exista possibilidade de violação a direitos humanos. A possibilidade de auditorias e de controle público sobre esse tipo de atividade, como a partir da certificação desses algoritmos, “seria um caminho ideal para evitar que danos continuem sendo ampliados” acredita Yasmin Curzi.

Os pesquisadores apresentam um modelo a ser seguido pelas plataformas para que alcancem a transparência significativa:

1.     Relatórios com contexto: Para garantir que dados quantitativos possam ser avaliados a partir de uma perspectiva qualitativa, as plataformas devem disponibilizar bases de dados, inclusive informações qualitativas sobre:

A)    Qual conteúdo foi denunciado;

B)    Quais medidas foram tomadas pela plataforma;

C)   Qual procedimento foi adotado por elas (manutenção, remoção, despriorização etc.);

D)    Até que ponto os requisitos do devido processo foram aplicados;

E)     Qual foi a consequência do apelo do usuário (mudou a decisão original ou não).

As plataformas também devem fornecer apoio para instituições e pesquisadores independentes, incentivando a avaliação de riscos, auditorias, investigações e outros tipos de relatórios em plataformas práticas e atividades. 

2.     Regras padronizadas e compartilhadas: De uma perspectiva substancial, plataformas devem compartilhar informações detalhadas e inteligíveis sobre o seguinte:

A)    Suas regras de moderação de conteúdo;

B)    O emprego e o funcionamento de sistemas automatizados de moderação de conteúdo;

C)    Procedimentos de devido processo.

De uma perspectiva metodológica, as plataformas devem:

A)    Padronizar coletivamente a apresentação de relatórios em coordenação com outras partes interessadas;

B)    Disponibilizar dados em um formato interoperável, compreensível e legível por máquina de forma contínua e auditável por terceiros interessados;

C)    Publicar suas iniciativas – incluindo relatórios de avaliações de risco – sobre a identificação e prevenção de vieses em seus algoritmos e procedimentos de moderação de conteúdo; e,

D)    Permitir o uso de APIs de moderação de conteúdo interoperáveis. 

O documento, que contou com a contribuição de diversos atores por meio de lista de discussão, teve sua versão final apresentada no “17th Internet Governance Forum 2022”, promovido pelas Nações Unidas em Adis Abeba, Etiópia, entre os dias 28/11 a 2/12 deste ano.

COMPARTILHAR:
0
Would love your thoughts, please comment.x