A denúncia de que estudantes de uma escola particular do Rio de Janeiro fabricaram nudes falsos de colegas da sala ocorreu um mês depois de episódio parecido em Almendralejo, pequena cidade da Espanha, onde 28 meninas foram afetadas. Nos dois casos, as autoridades locais estão ouvindo as vítimas, investigando os responsáveis e, provavelmente, batendo cabeça sobre como punir adolescentes por um crime cibernético. As escolas deverão adotar punições que parecem resolver o problema, mas são paliativas. E os aplicativos que produzem nudes falsos? E os aplicativos de mensagens por onde circulam as fotos das meninas nuas, dando uma dimensão pública para cada caso?
Numa busca rápida, a big tech hegemônica do ramo oferece, pelo menos, cinco opções de aplicativos em que você manda uma foto da pessoa com roupa e ele cuida de tirar, em versões gratuitas e premium. A deepfake perfeita era uma montagem cara e difícil até pouco tempo. Hoje há dezenas de aplicativos disponíveis para criar imagens fictícias ou vídeos falsos usando rostos conhecidos ou anônimos com discursos fabricados, por exemplo.
Até aqui, em dois parágrafos, falamos de três tipos de empresas de tecnologia – aplicativos de mensagens, aplicativos de deepfakes e um buscador – que se mostram, até hoje, insuficientes em suas políticas para proteger crianças e adolescentes.
As medidas regulatórias externas para estas empresas têm caminhado em todo o mundo, mas são processos sensíveis e complexos que não absorvem de imediato a velocidade e dimensão real dos impactos danosos na sociedade. No caso do ocorrido em Almendralejo, autoridades locais e o governo da Espanha podem lançar mão da recém aplicada Lei de Serviços Digitais, da União Europeia, para buscar a reparação das famílias das jovens expostas e confrontar as empresas envolvidas – ainda que sejam consideradas de menor porte – sobre respostas aos usuários, transparência e segurança de crianças e adolescentes. Certamente, um processo que levará tempo e etapas, mas nem por isso as famílias deverão desistir de incluir o setor privado de tecnologia na busca por justiça.
Sobretudo, o caso de Almendralejo ganhou notoriedade porque os responsáveis pelas adolescentes atingidas foram às redes sociais denunciar o ocorrido e pedir providências.
No Rio de Janeiro, Brasil, onde cerca de 25 meninas tiveram imagens editadas e compartilhadas, como poderemos responsabilizar as empresas privadas por este episódio (que tem potencial para incentivar outros do gênero)?
A regulação de Inteligência Artificial e redes sociais anda a passos lentos. Ficou parado no Congresso Nacional o PL 2630, que previa um “dever de cuidado” das plataformas digitais, uma forma ágil para prevenir ou mitigar práticas ilegais no âmbito do serviço que acabem por incitar ou configurar crimes contra crianças e adolescentes, entre outras circunstâncias.
Já a Inteligência Artificial é abordada em um projeto de lei em debate no Senado. No momento ocorrem audiências públicas com especialistas, numa tentativa de correr atrás do avanço absurdo de inovação nesta área. Apenas a China tem um marco legal para Inteligência Artificial, embora 21 países já citem IA em leis e 18 discutam legislação, conforme matéria da Folha de S. Paulo.
O caso carioca é investigado pela Delegacia de Proteção à Criança e ao Adolescente. É a primeira vez que esse tipo de delito é registrado na delegacia especializada. A Polícia Civil, porém, avalia que pode haver um aumento de registros do tipo à medida que ferramentas de manipulação de imagens por inteligência artificial se popularizem.
A nota da escola brasileira, onde medidas punitivas e paliativas devem ser adotadas, expressa “susto e decepção” pelo uso da ferramenta de Inteligência Artificial que, segundo o colégio, deveria ser usada para “solucionar problemas e apoiar a vida moderna”.
Claramente, instituições de ensino e autoridades ainda estão aprendendo a lidar com este tipo de crime ocorrido a partir do uso da Inteligência Artificial e das redes sociais. E nós como sociedade também. O que não dá para aceitar é que apenas escolas, sociedade civil e governos se responsabilizem por esta violência.
As plataformas digitais precisam ser devidamente responsabilizadas a partir de regulações expressas que incluam prevenção e reparação dos danos que podem advir dos seus mais variados usos.
Há mecanismos, ferramentas e políticas de proteção que podem ser amplamente implementadas e que, obviamente, exigem investimentos por parte destas empresas. Hoje, o Marco Civil da Internet, norma legal que disciplina o uso da Internet no Brasil, diz que as empresas de tecnologia não se responsabilizam pelo conteúdo que nelas circula, a não ser que sejam acionadas judicialmente.
A única exceção é o caso de divulgação por terceiros de fotos, vídeos com cenas de nudez ou ato sexual de caráter privado ou sem autorização das pessoas envolvidas. Nestes casos, a pessoa que foi vítima pode pedir a remoção imediata na plataforma digital. Mas ainda há controvérsias de como provar que foi vítima desse tipo de crime. As provas no mundo digital são mais um complicador, que já foi tema de um Ponto de Vista no *desinformante.
Ao contrário das formas de combate, as consequências, já sabemos, são nefastas, especialmente se levarmos em conta que as principais vítimas de nudes falsos e pornografia na internet são as mulheres. As adolescentes vítimas de Almendralejo e do Rio de janeiro estão com crises de ansiedade, envergonhadas (porque neste tipo de crime as vítimas se sentem culpadas) e algumas sequer fizeram a denúncia.
O fato é que precisamos avançar na proteção de crianças e adolescentes na internet. E não há uma saída única para isso, serão necessários esforços complementares em várias frentes. O Reino Unido deu um passo importante no último mês e definiu situações em que as big techs devem ser diligentes.
“Estamos atualmente em algum ponto do início da curva exponencial do avanço tecnológico em inteligência artificial, com expectativa de sucessivas gerações de ferramentas cada dia mais potentes, para o bem e para o mal”, definiu Victor Martins Pimenta, diretor de Direitos na Rede e Educação Midiática da Secretaria de Políticas Digitais do governo.
Para ele, será fundamental que educadores, pesquisadores, movimentos sociais, organizações da sociedade civil e gestores públicos estejam em estado de alerta, atualização e escrutínio permanentes. O governo desenhou uma Estratégia Brasileira de Educação Midiática, incluindo ações da sociedade civil, iniciativa privada, instituições de ensino fundamental e médio, academia e governo.
Uma forma de se obter resultados mais rápidos, agora digo eu, em se tratando das big techs, seriam soluções supranacionais, já que as empresas oferecem serviços equivalentes em diversas partes do mundo. Alianças, esforços de parcerias entre países e blocos econômicos em situações de danos coletivos – como no Colégio Santo Agostinho da Barra e Almendralejo, na Espanha – são bem-vindos e necessários.
No final de outubro, a ONU lançou um órgão com a pretensão de colocar “a inteligência artificial a serviço da humanidade” e fazer com que seus riscos sejam contidos e diminuídos.
O anúncio foi feito pelo secretário-geral, António Guterres, e consiste na criação de um grupo consultivo de alto nível e multissetorial, composto por 32 especialistas de várias partes do mundo.
Dentre os perigos potenciais, Guterres destacou aumento da desinformação, consolidação do preconceito e da discriminação, vigilância, invasão de privacidade, fraudes e violações dos direitos humanos.