Início 9 Destaques 9 Discord anuncia remoção de 65 mil contas e apoio na apreensão de 300 suspeitos de planejar ataques a escolas no país

Últimas notícias

Pexels

jul 14, 2023 | Destaques, Notícias

Discord anuncia remoção de 65 mil contas e apoio na apreensão de 300 suspeitos de planejar ataques a escolas no país

Pexels
COMPARTILHAR:

 O Discord divulgou que removeu mais de 65 mil contas brasileiras que violaram as políticas da empresa e também que auxiliou com informações na apreensão de 300 pessoas que estavam vinculadas a ataques planejados a escolas. As informações foram divulgadas em nota à imprensa após reunião de executivos da plataforma com representantes do Ministério da Justiça e Segurança Pública do Brasil, na última quinta-feira, dia 13 de julho. 

Na reunião executivos da plataforma e representantes do MJ debateram como podem ser melhorados os mecanismos de segurança e moderação da plataforma para os usuários brasileiros. Entre os temas abordados, esteve a colaboração da empresa com as investigações e as demandas das polícias, principalmente envolvendo eventos de aliciamento infantil, comércio de drogas sintéticas e prevenção de ataques a escolas.

“A empresa já mostrou alguns avanços como os recursos de controle parental da plataforma lançados ao público ontem e o aperfeiçoamento do sistema de atendimento de requisições das autoridades, incluindo o lançamento de um guia em português, apresentado em primeira mão na reunião”, anunciou Estela Aranha,  assessora especial de direitos digitais do Ministério, em sua rede social.

Crimes contra animais, incêndios provocados, chantagens, estupros virtuais e auxílio ao suicídio. Essas são algumas das atividades criminosas praticadas ou compartilhadas no Discord que vieram à tona nos últimos meses e deixaram o aplicativo no alvo das denúncias sobre toxicidade do ambiente virtual e sobre os riscos para jovens e adolescentes.

De acordo com Estela Aranha, desde abril, o órgão mantém contato com o aplicativo. O primeiro contato se  deu no âmbito do programa Escola Segura. “Foi a primeira vez que alguma autoridade brasileira fez reunião com a plataforma, eles não tinham sido procurados a não ser por ofício. Eles se mostraram abertos a conversar, e ficou a sensação de eles não saberem o que estava acontecendo aqui, o tamanho do problema”, disse Aranha.

O que é o Discord e quais seus riscos?

Com uma modelagem híbrida, reunindo características múltiplas em uma única plataforma, o Discord nasceu em 2015 com a ideia de reunir gamers para que interagissem online enquanto jogavam. O aplicativo, explicou Alexandre Teles, mestrando em Comunicação pela Universidade Federal da Bahia e pesquisador do INCT em Democracia Digital, cresceu principalmente por uma relação entre os usuários do Twitch [plataforma de transmissões online] e Discord, um público majoritariamente jovem que já acompanham lives de gamers e adotaram a plataforma. Hoje, a rede também abrange uma grande comunidade de fandoms [grupos de fãs], o que também atrai um público adolescente.

A rede atua por meio de servidores que podem ser criados por qualquer usuário. Esses servidores podem estar em dois níveis. Um deles é o nível da “superfície”, ou seja, são servidores públicos e abertos que qualquer usuário com conta pode acessar. O outro nível é privado, em que o usuário precisa de um convite para acessar aquele espaço. 

“Mesmo dentro dos servidores, você ainda pode ter outros níveis de privacidade. Você pode ter servidores que são públicos, mas que existem áreas do servidor que estão disponíveis apenas para determinados grupos dentro do servidor. Então é um pouco mais complicado, não é tão simples nem mesmo de monitorar”, esclarece Teles.

No geral, o aplicativo se coloca mais como um serviço de mensageria, como Telegram ou o WhatsApp, que uma rede social “tradicional”, isso porque não há feeds nem algoritmos de recomendações de conteúdos. Para acessar determinados espaços, os usuários – que na maioria são adolescentes – precisam entrar naquele servidor, que poderia ser comparado a um canal do Telegram. Por lá, a comunicação pode se dar por texto, áudio ou vídeo em tempo real.

Para Leonardo Nascimento, professor e pesquisador da UFBA, o que aumenta os riscos da plataforma são essas regiões de “menor visibilidade”. “Nas regiões das profundezas a gente não sabe o que acontece, tem servidores do Discord que você não sabe sequer que existem, mas tem pessoas lá fazendo as mais diversas coisas”, explica. 

Além dos abusos denunciados pelo programa Fantástico, o relatório do Stop Hate Brasil também mapeou servidores extremistas com imagens de armas e reprodução de discursos supremacistas brancos. Em conversa com o *desinformante, a assessora do Ministério da Justiça também indicou outros crimes que estão sendo apurados no aplicativo, como a venda crescente de drogas sintéticas.

Moderação de conteúdo é desafio 

O pesquisador Leonardo Nascimento acrescenta que o tipo de conteúdo denunciado nos últimos meses não circula tão facilmente em plataformas como Instagram ou Facebook. “Porque provavelmente você vai ser derrubado pelas leis que os conteúdos são submetidos por lá, só que nessas plataformas como o Discord, a moderação é praticamente impossível”, afirma.

Alexandre Teles destacou que a moderação do conteúdo na plataforma é feita basicamente em três níveis. O primeiro nível é automatizado e utilizado principalmente para bloqueio de conteúdo adulto, principalmente para moderação das mensagens privadas. No entanto, é um nível de moderação que pode ser desabilitado pelo próprio usuário da ferramenta.

O segundo nível é a moderação feita pela própria plataforma, em que a empresa utiliza mecanismos internos e também apura as denúncias feitas pelos próprios usuários. Em resposta ao *desinformante, o Discord destacou tecnologias criadas para lidar com conteúdos nocivos: “O Discord usa uma combinação de ferramentas proativas e reativas para remover conteúdos que violam nossas políticas, desde o uso de tecnologia avançada, como modelos de aprendizado de máquina e hashing de imagens do PhotoDNA […] Analisamos proativamente as imagens carregadas na plataforma usando o PhotoDNA para detectar material de abuso sexual infantil (CSAM, na sigla em inglês) e denunciamos todos os conteúdos CSAM e infratores ao NCMEC, que posteriormente trabalha com as autoridades locais para tomar as medidas necessárias”.

O último nível da moderação pontuado por Teles diz respeito à moderação dos próprios administradores e moderadores dos servidores, ou seja, quem gere aquele grupo também fica responsável por fazer valer naquele espaço os termos de uso da plataforma. No entanto, esse administrador precisa querer cumprir as regras. No próprio site do Discord, a tag de moderação é destinada a dar diretrizes para que seja feita a moderação e como os recursos da plataforma, por exemplo a proibição de certos termos, podem ser usados para esse fim. 

“Inclusive o Discord tem um servidor específico onde os administradores moderadores de servidores grandes podem trocar ideias diretamente com a staff do discord, informar problemas, questões de conteúdo. E eles também têm uma academia de moderação para que os moderadores saibam como lidar com o conteúdo, o que é admissível, o que não pode permanecer na plataforma. Então grande parte do peso de moderação dentro dos servidores recai sobre o ombro dos administradores”, explica Alexandre Teles.

Estela Aranha acrescenta que não faz sentido pensar em uma moderação de conteúdo no Discord como nas outras redes sociais, justamente pela sua arquitetura de serviço de mensagens. “Mas tem que ter ferramentas de segurança, ainda mais por ser um serviço muito utilizado por adolescentes”, completa.

“Pelos números apresentados, eles [o Discord] estão tendo esforços progressivos, mas precisam sempre melhorar”, colocou a assessora do MJSP. Aranha destacou a colaboração realizada no âmbito da apuração e investigação dos crimes cometidos no aplicativo e pontuou que essa colaboração agora passa também para o âmbito da prevenção desses casos, inclusive com o desenvolvimento de produtos.

“A gente sabe que crimes são cometidos independente da plataforma, mas a gente sabe que a atuação da plataforma tem um papel importante nisso. E o Discord, quando percebeu o que estava acontecendo no Brasil, ao contrário do Telegram – que até hoje não cumpre o Marco Civil da Internet -, iniciou uma colaboração”, destacou Aranha.

Discord lançou controle parental 

No início desta semana, o Discord divulgou o Controle Parental, uma ferramenta que permite que os pais tenham acesso aos amigos adicionados pelos adolescentes, os servidores que ele entrou ou participou e os usuários com os quais ele teve contato. No entanto, os pais não podem ver o conteúdo das mensagens em si.

Divulgação Discord

“Essas ferramentas estão sendo lançadas agora porque as conversas estavam sendo feitas, foi um tempo de dois, três meses para o lançamento. Não sei qual que vai ser o resultado, mas dentro do possível, sem ter uma legislação que obrigue, sem ter mais responsabilidades, sem ter instrumentos legais para avançar, a resposta foi bem razoável em relação às providências, eles ouviram muito e esse gesto de vir ao Brasil também eu acho que foi um gesto importante”, pontuou a assessora do MJ.

Em resposta ao *desinformante, o Discord disse que está comprometido em cooperar com as agências de aplicação da lei no Brasil. “Nos preocupamos profundamente com nossos usuários brasileiros e estamos buscando ativamente parcerias no Brasil, especialmente com quem tem experiência em segurança infantil”, disse a empresa em nota.

Plataforma fica de fora do PL 2630 

Apesar de o PL 2630/2020 trazer dispositivos específicos para a proteção de crianças e adolescentes e a ideia de dever de cuidado para uma atuação mais ágil das plataformas, o texto como está não abrange o Discord. Isso porque o projeto em sua redação atual abrange apenas serviços e plataformas com mais de 10 milhões de usuários ativos no país, o público do Discord é estimado em 3 milhões de usuários.

Após a divulgação dos casos de violência extrema no aplicativo, houve uma campanha massiva nas redes sociais em favor do PL como uma forma de atuar nessa prevenção. Em meio a isso, foi levantada a possibilidade de mudar o texto para incluir o aplicativo nessas obrigações legais – caso seja aprovado na Câmara Federal.

O pesquisador Leonardo Nascimento alerta para que as obrigações impostas a grandes plataformas podem não se adequar a empresas menores, isso pelo custo da implantação de certas ferramentas, por exemplo. Para ele, é preciso incluir uma obrigação geral de transparência de dados para as plataformas, mas determinadas obrigações, mas outras precisam ser avaliadas de acordo com o tamanho da empresa.

Além do Discord

“O debate público do Brasil precisa dar um salto, fazer um upgrade e sair do nível excessivamente rasteiro de demonização da plataforma”, afirmou Leonardo Nascimento. O pesquisador alerta que o fenômeno da violência, da radicalização e do extremismo online extrapolam as fronteiras de uma única plataforma, é um problema social que é mais amplo que isso.

“Por que, nesse ecossistema multiplataforma, a gente está tendo uma manifestação diária de raiva, de ódio muito extremo de jovens? Ou seja, por que os espaços sociais não estão conseguindo digerir isso ou subliminar essa violência de outras formas? Essa é a pergunta que deve ser feita. Não é dizer ‘fecha o Discord, fecha o Telegram e acabou o problema social’. Isso vai pipocar em outra rede”, argumenta Nascimento.

O pesquisador Alexandre Teles concorda com essa leitura. Para ele, o Discord atrai um tipo específico de pessoa que tem um interesse específico e, entrega a construção de uma comunidade muito forte, com um intenso sentimento de pertencimento e de construção de identidade. 

“A gente precisa pensar sobre a formação de relações sociais, por que essas relações são tão fortes no Discord, por que as pessoas estão substituindo relações pessoais presenciais por relações que são intermediadas pela plataforma? Então simplesmente remover a plataforma não resolve até porque existem concorrentes da plataforma”, argumentou Teles.

O pesquisador também acrescenta que é preciso ter uma educação de como utilizar a plataforma, de como não expor a intimidade nela, de quais servidores são seguros acessar e quais não. Para Leonardo Nascimento, além do controle parental, é preciso ter o “diálogo parental”, um papel mais ativo na relação com os jovens.

COMPARTILHAR:
0
Would love your thoughts, please comment.x