Recentemente fui responsável por organizar uma publicação, que inclui 30 perspectivas de pesquisadores e ativistas do Brasil, em especial mulheres das regiões norte e nordeste. A segunda edição do livro “Enfrentando Deepfakes” é resultado de quase 2 anos de conversas, convites e trocas que produziram retratos do debate sobre o impacto desta tecnologia no Brasil. Esse exercício de cada uma das autoras, baseado em uma chamada da Unesco e no Fórum da Internet no Brasil em Salvador (FIB15), permitiu construirmos uma obra coletiva de impacto.
Este trabalho coletivo inclui desde as reflexões da advogada baiana Ana Gabriela Ferreira sobre o uso da Inteligência Artificial como uma arma de gênero; passando pela jornalista soteropolitana, Glenda Dantas, que aponta a difusão do discurso racista através de conteúdos sintéticos em redes sociais; englobando o diagnóstico da pesquisadora e gaúcha Fernanda Rodrigues, que aponta o papel dos buscadores em indicar ferramentas para a produção de deepnudes contra mulheres negras; e culminando na análise da publicitária Thiane Neves Barros entre a cultura popular que nos une e as mentiras fabricadas que nos separam. Todas elas mulheres negras.

O livro é, portanto, um convite a ler e referenciar intelectuais negras, especialmente do do Norte e Nordeste do país, como um gentil lembrete de que devemos ampliar as vozes que povoam nossos imaginários. Quero aproveitar esta oportunidade para sedimentar alguns aprendizados, após meses de um aquecimento do debate público acerca da Inteligência Artificial Generativa (IAGen) e conteúdos sintéticos, em especial, as deepnudes, compartilhando algumas dicas.
Uma pergunta simples
Fica difícil pensar em usos legítimos para as deepfakes, quando esta tecnologia têm sido utilizada de maneira tão nociva. Tenho me perguntado há algum tempo como posso evitar ser mais uma vítima. Recentemente, eu tomei medidas para me precaver de algumas ameaças em potencial.
Por conta de riscos financeiros, eu realizei bloqueios através do GOV.BR (1) impedindo meu cadastro em outras instituições bancárias, porque alguns golpes utilizam contas de banco em nome da vítima, que ela sequer conhece; (2) bloqueando a inclusão do meu CPF como sócio em qualquer CNPJ, porque tenho pavor de ser laranja; e (3) contra o meu cadastro em plataformas de apostas, depois de tantas histórias sobre vidas destruídas pelas bets.
Eu confesso que me sinto mais seguro assim. No entanto, vale destacar que o próprio GOV.BR tem vulnerabilidades exploradas por criminosos, como apontado através da operação face off da Polícia Federal. Em 2025, a operação teve “o objetivo de desarticular uma associação criminosa especializada em fraudar contas digitais vinculadas à plataforma GOV.BR, utilizando técnicas avançadas de alteração facial para burlar sistemas de autenticação biométrica”.
Nesse cenário, a pergunta simples ganha outras camadas. Alguns leitores poderiam apontar que este é um problema resultado da ineficiência do Estado. No entanto, como apontado por Ana Camelo, empresas privadas, que frequentemente servem como ponto de referência, têm sofrido fraudes e sido economicamente impactadas.
Essas ameaças fundamentam um medo legítimo de sofrer um ataque e ficar no prejuízo. Com frequência, as ameaças servem como ponto inicial de reflexão. Se nos limitarmos a fazer perguntas mais simples, podemos nos contentar em acreditar na responsabilização limitada, na solução individual e na culpabilização da vítima.
Uma resposta simples
A advogada Ana Gabriela Ferreira tem chamado as deepfakes de armas de gênero, porque essas ferramentas produzem deepnudes que agem violentamente contra os corpos de mulheres no Brasil.
Diante destes instrumentos de violência, eu resolvi perguntar ao Grok o que ele recomenda. Em abril de 2026, o chatbot da xAI me orientou que eu poderia “reduzir muito os riscos com hábitos simples e vigilância”. Diante da pergunta “Como eu posso evitar ser vítima de deepfakes?”, o Grok me recomendou (1) reduzir a pegada digital, (2) verificar sempre a identidade antes de agir, (3) aprender a identificar sinais comuns de deepfakes, (4) fortalecer a minha segurança digital, (5) utilizar ferramentas úteis para checar conteúdos suspeitos.
Essa é uma resposta simples — e que honestamente não me atende. Essa resposta te atende? Ela atende a alguém? Nesse experimento, fiz algumas perguntas subsequentes e as alternativas são limitadas. As respostas do Grok consistentemente ignoram a necessidade de tomadas de ação mais complexas, que demandam a participação na esfera política e a qualificação do debate público.
Em síntese, como bem posto por Juliane Cintra, “ganha corpo uma dupla que caminha sempre de mãos dadas: a busca contumaz por mais soluções técnicas e a pedagogia dos hábitos online”. Esse conjunto de respostas permite um diagnóstico do presente sobre como acredita-se que uma vítima de conteúdo sintético sexual não consensual é, no fundo, a grande responsável.
Como evitar ser uma vítima? Apesar das big techs se esconderem atrás do manto da inovação, parece que a resposta que oferecem é a mesma que já conhecemos para violência sexual. No final do dia, essa lógica imputa a responsabilidade da vítima não deixar que suas fotos sejam capturadas em seus perfis ou fotografadas em ambientes públicos.
Eu entendo que falar de regulação tem sido uma luta cansativa, especialmente ao lidar com o desequilíbrio de poderes e o desafio de comunicar a importância da pauta. Em recente entrevista ao podcast “Calma Urgente” (1:11:48) durante o Global Progressive Mobilisation, que ocorreu em abril na Espanha, o Presidente Lula, sendo um bom e velho torneiro mecânico, falou em regulagem das big techs. Pra mim, fez todo o sentido.
As engrenagens das big techs que moem gente precisam ser repensadas e elas demandam uma regulagem que, pelo menos, reduza danos. Nos cabe perguntar quando o Estado será capaz de lubrificar as polias para reequilibrar as forças e garantir a responsabilização daqueles que lucram com ferramentas de violência.
