Início 9 destaques 9 Regulação e ação multiplataforma para combater violência de gênero na internet

Últimas notícias

acervo pessoal

jan 4, 2024 | destaques, notícias, panorama2024

Regulação e ação multiplataforma para combater violência de gênero na internet

acervo pessoal
COMPARTILHAR:

Violência política de gênero, desinformação de gênero, discurso de ódio com base em gênero, revenge porn. Não é possível combater as muitas faces da violência de gênero na internet de forma eficaz sem vontade política para regular e uma ação coordenada entre as plataformas. Pesquisadora de Inteligência Artificial e discurso de ódio e gênero, Luiza Santos falou também, nesta entrevista à série #panorama2024 do *desinformante, sobre o sexismo que alcança até as assistentes virtuais e a ineficácia na autorregulação das plataformas. 

Luiza Santos é doutora em Comunicação e Informação pela Universidade Federal do Rio Grande do Sul (UFRGS), com estágio doutoral na Goethe Universität (ALE) e no Sussex Humanities Lab da Univesity of Sussex (UK). Professora Substituta na Universidade Estadual de Ponta Grossa (UEPG), atualmente coordena o Grupo de Pesquisa em Tecnologias e Culturas Digitais da Intercom.

Liz Nóbrega: Antes mesmo de a gente falar de Chat GPT, já existiam as assistentes digitais, como a Alexa, a Siri, personificadas sempre com figuras femininas que inclusive sofreram ataques misóginos. Nem as máquinas escapam ao sexismo? Como você vê essa relação entre IA e gênero?

Luiza Santos: Talvez nem as máquinas escapem ao sexismo porque, dependendo do olhar ou análise que a gente utilizar, elas dão na verdade vazão ou continuidade ao sexismo ou à misoginia. Além dessas assistentes que você listou, relacionadas a marcas de tecnologia, a gente tem a Bia do Bradesco, a Lu da Magalu, a Nat da Natura. Existe uma associação da mulher com a máquina. Gosto muito de trabalhar com uma autora canadense, a Sarah Sharma, que traz essa ideia de que se espera das mulheres uma forma de ação que é similar à máquina. Há uma prescrição sobre como a gente deveria se comportar. 

E quando há hoje um questionamento sobre esse papel, com as mulheres querendo modificar um pouco esse conjunto, a gente vai ter o que a Sarah Sharma chama de “mulheres-máquinas quebradas”, que são essas mulheres que talvez não performem mais como um contexto patriarcal esperaria. Estão saindo um pouco desse jogo, e por isso são consideradas como se não estivessem funcionando adequadamente, podendo ser substituídas. Em um dos seus artigos, a Sarah vai analisar alguns discursos de pessoas relacionadas aos grupos de extrema-direita, misóginos, e o pessoal de desenvolvimento de tecnologia, e apontar como existe um certo pensamento hoje sobre efetivamente substituir por máquinas as mulheres que estão dificultando muito a vida dos homens. 

Existe a ascensão das assistentes sociais, mas a gente também tem robôs para sexo, que na maioria das vezes são femininos. Vemos essa relação também no cinema. Por exemplo, na ficção científica “Her” o sistema operacional Samantha, na voz da Scarlett Johansson, é uma máquina que vem para substituir a mulher do relacionamento anterior do protagonista, que era uma mulher real, com suas questões, que não agia sempre como ele esperava, ou da maneira mais fácil. Voltando às assistentes pessoais: são objetos que vão sofrer uma série de abusos, como as mulheres sofrem. A Bia do Bradesco tinha umas respostas para quando alguém a assediava sexualmente. Se alguém insinuava um estupro em relação à Bia, ela falava: “eu sou uma máquina, eu não namoro”, associando estupro a namoro, o que é completamente sem sentido. Aí eles fizeram uma modificação para que ela começasse a falar: “olha, estupro é crime”. 

Lena Benz: Estudos mostram que os principais alvos dos deepfakes pornográficos são as mulheres. Podemos esperar que esse problema se intensifique nos próximos anos? Quais seriam as saídas possíveis?

Luiza Santos: Não sei se a gente pode esperar um agravamento, mas cada novo desenvolvimento tecnológico invariavelmente vai ser apropriado tanto para questões relacionadas à pornografia, quanto para a violência. Esse tipo de montagem, principalmente quando envolve expor em algum nível mulheres reais, não é só pornografia, é uma violência de gênero. Precisaria de um esforço para abarcar os diferentes tipos de violência online que as mulheres sofrem num mesmo escopo. Quando a gente pega Facebook, X, Tiktok etc., todas essas plataformas têm diretrizes de comunidade, a despeito de a gente discutir se elas são ou não implementadas. Usualmente algumas coisas são proibidas, como o discurso de ódio com base em diversas características, inclusive características de gênero. Mas geralmente essa diretriz não vem associada a outras práticas que a gente tem online contra mulheres: a violência política de gênero, a desinformação de gênero, o discurso de ódio com base em gênero, o revenge porn. Quando eu pego, por exemplo, o caso da Vera Magalhães, não é só um caso de violência política de gênero, tem discurso de ódio, tem uma campanha junto acontecendo. Essas práticas que acontecem por meio de mídias digitais geralmente são analisadas e combatidas de maneira separada. 

Eu vejo com muita preocupação esses grupos masculinistas, que estão crescendo. Eles não só vão replicar ideias muito equivocadas sobre as mulheres ou sobre gênero, mas também desenvolver estratégias de violência contra as mulheres. Como os homens usam muitas plataformas, para inclusive fazer essa [confirmação] de grupo, para os iguais se encontrarem, são grupos muito letrados, que sabem como usar as diferentes plataformas, quais são estratégias para dar mais visibilidade a um tipo de ataque. Talvez uma coisa que a gente precise fazer é combinar todos esses diferentes tipos de violência [ contra a mulher ] que já vêm sendo investigados, e de alguma maneira combatidos, e colocar tudo junto. Entender que são expressão de uma mesma coisa e que talvez não possam ser adequadamente combatidos de maneira isolada.

Plataformas terceirizam responsabilidade

Liz Nóbrega: Você publicou recentemente um artigo sobre as diferenças entre as plataformas. Queria te ouvir um pouco sobre isso e sobre a necessidade de regulação dessas plataformas, para que sejam estabelecidos critérios mínimos em relação à misoginia e a todos esses ataques ligados às mulheres.

Luiza Santos: Nesse artigo a gente estava olhando para seis plataformas: Twitter, Tiktok, Twitch, Facebook, Instagram e Youtube e analisando como elas propõem a autorregulação do discurso de ódio, a partir de um estudo das diretrizes de comunidade e eventualmente alguns documentos que vêm associados. Uma das principais coisas que a gente notou foi que existe um corpo de consenso entre as plataformas, no sentido de que todas elas colocam o discurso de ódio com base em categorias protegidas. Gênero, por exemplo, está protegido em todos. O discurso de ódio com base nessas categorias não vai ser permitido e a pessoa vai sofrer diferentes tipos de sanção, que variam muito. 

A gente também mapeou especificamente três questões: a primeira é a relação que as plataformas vão fazer com a questão da liberdade de expressão; associar a moderação de conteúdo à liberdade de expressão. Por exemplo, um discurso misógino tira das mulheres o conforto, a segurança de se expressarem nesse espaço, então a gente vai moderar isso para que esse grupo também possa usufruir da sua liberdade de expressão. Um segundo ponto é a dificuldade efetiva de implementar a moderação porque quando a gente pega discurso de ódio, a gente vai falar de diferentes grupos que vão ter formas específicas de se comunicar, vão utilizar linguagens de subculturas… Tem uma questão contextual sobre o discurso de ódio que, apesar de a gente ter um conceito claro sobre o que ele é, nem sempre é fácil olhar e dizer: “isso aqui é um discurso de ódio”. E é particularmente difícil com modelos de Inteligência Artificial porque justamente essa questão do contexto vai ser às vezes muito difícil para sistemas automatizados identificarem. 

Uma terceira questão que ficou bem evidente nesse estudo é que existe uma certa dependência do sujeito, da pessoa que está utilizando, fazer a denúncia de um dado conteúdo. A gente observou uma certa terceirização das responsabilidades para os usuários. A última questão no estudo que nos preocupa bastante é que não aparece nesses documentos menção a um trabalho entre as plataformas. Exceto ao que a gente possa supor, como Instagram e Facebook, que são da Meta e provavelmente compartilham seus métodos porque é a mesma empresa. Mas entre empresas diferentes não existe menção a um trabalho conjunto no combate, com estratégias ou resultados compartilhados. E também pouca articulação com outras entidades externas a elas mesmas. 

Falando sobre a questão da regulação: as diretrizes de comunidade são documentos redigidos pensando nessa audiência externa, que são os stakeholders. A mensagem geral dessas diretrizes é: “olha, não precisa intervir aqui, a gente dá conta, a gente tem práticas”. Estão apontando que podem seguir investindo dinheiro, se for esse o caso, e podem não fazer regulação, a depender de com quem estão dialogando. Eu particularmente entendo que a gente tem provas suficientes hoje de que essa autorregulação, por mais que os documentos sejam bonitinhos, não funciona. Se não, a gente não teria os casos que a temos hoje. As plataformas tanto não dão conta, como talvez não seja de total interesse fazer essa moderação, o cuidado desse espaço mais amplo. Penso que uma regulação externa é necessária nesse sentido de poder estabelecer mais parâmetros de transparência sobre o que é feito. Espero a existência de vontade política para isso, mas com certeza não é algo fácil.

Lena Benz: Considerando que em 2024 vão ter as eleições municipais no Brasil, como você imagina que a IA pode ser usada? Que cuidados a gente precisa ter em relação às candidaturas femininas nesse processo eleitoral? 

Luiza Santos: A gente teve, ao longo de 2023, ferramentas disponíveis que tornam muito mais fácil a produção de conteúdo desinformativo, principalmente pensando em imagens  que, num olhar mais desatento, podem ser bastante críveis. Se a gente tem um olhar um pouco mais cuidadoso, consegue perceber alguns traços, principalmente de hiper-realidade, que essas imagens têm. Mas não é como usualmente as pessoas olham para qualquer tipo de imagem das redes sociais. Esse olhar costuma ser muito mais rápido e menos criterioso. Eu imagino que a gente pode ter esse tipo de criação de imagens e, se for criado para candidatas mulheres, será muito mais provavelmente associado a essas questões de gênero: ou minando a capacidade daquela candidata por alguma exposição sexual suposta ou verdadeira, ou algum tipo de conduta que pode ser considerada inapropriada ao olhar de algumas pessoas para uma mulher nessa posição. 

Seria uma nova forma de fazer as mesmas narrativas sobre mulheres, que ou são bonitas, ou são sexys, ou são burras. Todas essas características que vêm para falar de mulher, mesmo nas suas posições de trabalho. Para combater, além de questões legislativas, acho que a gente tem que investir em literacia de mídia e na capacidade das pessoas de cada vez mais identificar não só o que é uma imagem falsa, mas também de identificar como alguns discursos vêm mais associados a candidatas mulheres. Essa nuance é importante, para além da questão mais técnica.

COMPARTILHAR:
0
Would love your thoughts, please comment.x