Início 9 destaques 9 O que são os robôs que fizeram Elon Musk “desistir” da compra do Twitter?

Últimas notícias

@thiagoilustrado

jul 12, 2022 | destaques, notícias

O que são os robôs que fizeram Elon Musk “desistir” da compra do Twitter?

@thiagoilustrado
COMPARTILHAR:

Na última quinta-feira, 7 de julho, o Twitter reuniu jornalistas com os seus chefes de segurança, integridade e de estratégias, desenvolvimento e parceria para explicar o que são os robôs (bots) na plataforma e quais medidas estão sendo tomadas para mitigar seus efeitos. O *desinformante esteve no evento que ocorreu um dia antes do anúncio de cancelamento da aquisição de 100% do capital social da empresa por Elon Musk. Segundo o empresário sulafricano, a desistência ocorreu porque o Twitter teria descumprido suas obrigações contratuais. Um dos  argumentos utilizados por Musk para cancelar as negociações é a quantidade de contas falsas presentes na rede.

O Twitter defendeu que menos de 5% das contas do número global de usuários diários ativos e monetizáveis (mDAU, na sigla em inglês) eram de contas de spam. Esses usuários spammers são criados para interferir na dinâmica da plataforma e tem como objetivo influenciar conversas, limitando a tomada de decisões confiáveis dentro do Twitter. No evento, a empresa afirmou remover mais de um milhão de contas de spam, diariamente, durante ou logo após a criação. Segundo a empresa, medidas anti-spam adotadas geraram uma redução de aproximadamente 9% durante o primeiro semestre de 2021 em comparação com os seis meses anteriores. 

A plataforma também afirmou que milhões de contas suspeitas de spam são removidas a cada semana, se elas conseguirem passar por desafios de verificação humana, tais como captchas ou verificação de seu telefone ou endereço de e-mail. A plataforma entende mDAU “como pessoas, organizações ou outras contas que acessaram ou foram autenticadas e acessadas no Twitter em qualquer dia através do Twitter.com, aplicativos Twitter que são capazes de mostrar anúncios, ou produtos pagos do Twitter, incluindo assinatura”. Portanto, contas que são utilizadas fora desse escopo não são consideradas dentro dos 5% de contas robôs. 

 

Contas falsas, robôs e spam: qual a diferença?

Os pesquisadores Kai-Cheng Yang e Filippo Menczer, da ​​Universidade de Indiana, que estudam há mais de uma década contas inautênticas e manipulação em redes sociais, acreditam que o desafio já começa no conceito de contas falsas, robôs e de spam. Segundo os pesquisadores, os termos são usados ​​de forma intercambiável, mas têm significados diferentes, o que já leva a uma confusão. Para eles, contas falsas são as que passam por humanos, as contas robôs são automatizadas e controladas em parte por softwares e as de spams são para produção de conteúdo promocional não solicitado em massa.

Apesar de poderem estar sobrepostas na plataforma, é importante distinguir as contas que degradam e violam as políticas da empresa.  Yang e Menczer adotam o termo “contas inautênticas” para se referir à coleção de contas falsas, robôs e de spam que são maliciosas. Esse foi o mesmo termo adotado pelo Facebook em 2018 para remover contas que estavam disseminando desinformação e conteúdo enganoso. Outros pesquisadores já criticaram o uso desse termo, já que ele é “mal definido” e vem sendo utilizado inclusive para remoção de campanhas coordenadas por usuários humanos.

 

O número real de contas inautênticas 

Estimar o número de contas inautênticas é uma conta impossível de se fazer, defende Marcos G. Quiles, pesquisador do Observatório de Mídias Digitais e Sociedade (DMSO) e professor da Universidade Federal de São Paulo (Unifesp). “Considerando o número de usuários ativos nas diversas plataformas disponíveis na rede, fica impossível monitorar, mesmo com auxílio de ferramentas de inteligência artificial, todas as contas existentes. Esse fato torna o processo de detecção de atividades coordenadas bastante complexo. Para identificar tais campanhas, há necessidade de se monitorar a atividade temporal de um número grande de usuários em busca por padrões equivalentes, o que é bastante difícil considerando a limitação de acesso ao fluxo de dados e as rotinas usadas para camuflar informações postadas”, explica. 

Marie Santini, professora da Escola de Comunicação da UFRJ e diretora do NetLab, concorda com a dificuldade da tarefa. “ Nosso desafio começa na coleta de dados, já que não tem plataformas que tenham APIs (formas de acessar os dados) completamente abertas para coletarmos o que quisermos. Por exemplo, o Twitter só libera a coleta de 1% dos tuítes pela API pública. O Facebook não permite coletar nada. O YouTube é complicado, conseguimos coletar comentários mas não exatamente os vídeos”, explica.

O pesquisador Wilson Ceron, também do DMSO, adiciona: “Nós, pesquisadores, temos acesso a apenas uma fração ínfima dos dados do Twitter. Fora isso, não temos acesso aos chamados metadados, como endereços de IP (código único de onde o usuário acessa a conta) e dados dos usuários”. A falta desses dados e metadados limita a capacidade do público de identificar contas inautênticas.

A equipe do Twitter deixou claro que o percentual de 5% de contas inautênticas é uma estimativa, deixando brecha para investidores pensarem que pode ser maior que o anunciado. “Existem vários artigos científicos que estimam que o Twitter tenha uma média de 15% de contas automatizadas até porque eles permitem a automação nos Termos de Uso em algumas circunstâncias. Isso fez com que muitas contas fossem criadas e não tem nenhuma transparência sobre o cancelamento dessas contas”, analisa a diretora do NetLab. Entre essas contas automatizadas existem robôs que não têm intenções maliciosas, como Ceron discute nesse artigo

Além disso, determinados eventos geram maior criação de conteúdo spam, tais como eleições.  “Em algumas campanhas de desinformação, sabemos que o volume chega a 40%. Já pegamos campanhas onde quase 90% era automação”, detalha Santini. Outro fator que interfere nessa estimativa é que novas táticas são adotadas para evitar a detecção de contas inautênticas pelas plataformas.

 

Medidas para controlar as campanhas de contas robôs

A missão da equipe de integridade do Twitter é proteger e promover a autenticidade das conversas da plataforma. Para isso, a identificação dessas conversas e campanhas orquestradas de spam é muito importante. De acordo com o Twitter, o maior desafio é distinguir campanhas promovidas por entidades da sociedade civil para promoção de um debate e atores mal intencionados que tentam usar a plataforma de uma maneira destinada a amplificar artificialmente ou suprimir informações ou se engajar em comportamentos que manipula ou perturba a experiência dos usuários na plataforma. 

Entre as medidas tomadas pela plataforma, está a limitação de mensagens replicadas e a não inclusão no trending topics, mesmo que seja de organizações da sociedade civil. Se por um lado, isso limita o alcance de atores mal intencionados, por outro lado, limita o alcance de campanhas da sociedade civil. “É surreal que uma plataforma se proponha ao papel de impedir que a sociedade civil se organize para impulsionar um determinado assunto que está alinhado ao seu objetivo social, ao seu objeto, ao seu interesse ou a sua finalidade política social. Historicamente manifestações de rua acontecem dessa forma. A sociedade se organiza, marca um dia, um horário para que as pessoas se agrupem e digam palavras de ordens comuns, com objetivo de demonstrar a existência de uma coesão em torno de uma agenda em comum”, denuncia Humberto Ribeiro, diretor jurídico e de pesquisas do SleepingGiants Brasil. 

Ribeiro defende que o Twitter deveria estar preocupado com a utilização de contas automatizadas ou semi-automatizadas para o impulsionamento de conteúdos falsos e discriminatórios. Segundo o executivo do movimento, essas informações têm sido vistas de forma reiterada na plataforma. Em vez de tomarem medidas contra esse tipo de conteúdo, “o que a gente tem percebido é essa tentativa de silenciar movimentos, organizações, atores da sociedade [civil] que se organizam com pautas legítimas”. 

“Isso desvia um pouco a plataforma do objetivo que ela se propõe: ser uma plataforma de debate aberto onde as discussões políticas tomam o corpo”, defende. O Sleeping Giants Brasil, por exemplo, conseguiu com a campanha #TwitterApoiaFakeNews a inclusão de ferramentas de combate à desinformação já disponíveis em outros países. Humberto defende que esse engajamento aconteceu de forma orgânica, assim como os seguidores que possuem hoje. 

De acordo com a equipe do Sleeping Giants, houve momentos em que o Twitter limitou o alcance, assim como removeu a função autocompletar das hashtags ou expressões que estavam utilizando. “Isso aconteceu na campanha #YouTubeApoiaFakeNews, #FakeNewsMata e #GoogleNegligente. Todas essas hashtags foram retiradas da função autocompletar após um tempo que nós já estávamos utilizando”, exemplifica Ribeiro.

O trabalho com pesquisadores têm sido fundamental para a plataforma que poderá otimizar seus algoritmos e tomar medidas mais acertadas na moderação de conteúdo. “O importante é que o Twitter trabalhe junto com pesquisadores do Sul Global, assim como faz com os das Universidades que estão no Hemisfério Norte. Nós temos problemas únicos, que devem ser abordados de diferentes maneiras”, defende Ceron.

COMPARTILHAR:
0
Would love your thoughts, please comment.x