O Senado Federal aprovou, no dia 24 de março, o Projeto de Lei 896/2023, que inclui a misoginia entre os crimes de preconceito e discriminação previstos na Lei 7.716/1989, conhecida como Lei do Racismo. A proposta, aprovada por unanimidade – com 67 votos favoráveis -, segue agora para análise da Câmara dos Deputados e pode ampliar a responsabilização também para violências misóginas cometidas no ambiente digital.
O texto define misoginia como “a conduta que exteriorize ódio ou aversão às mulheres” e estabelece pena de dois a cinco anos de prisão, além de multa, patamar mais elevado do que o atualmente previsto no Código Penal, que trata esses casos como injúria ou difamação, com punições mais brandas. A proposta também inclui a expressão “condição de mulher” entre os critérios de interpretação da Lei do Racismo, ao lado de raça, cor, etnia, religião e procedência nacional.
Durante a votação, senadoras que defenderam o projeto associaram a necessidade de endurecimento da legislação ao aumento dos casos de violência contra mulheres no país. Segundo a relatora da proposta, senadora Soraya Thronicke (Podemos-MS), apenas em 2025 foram registradas quase 7 mil vítimas de casos consumados ou tentativas de feminicídio no Brasil. Para parlamentares, esse cenário está diretamente ligado à disseminação de uma cultura misógina, impulsionada por dinâmicas que se intensificam nas redes sociais.
Misoginia na internet impulsiona decisão
Entre os exemplos recentes estão a circulação da trend “Caso ela diga não”, que encoraja reações violentas diante da recusa de mulheres, e o uso de ferramentas de inteligência artificial generativa para a criação de imagens íntimas falsas sem consentimento, os chamados deepnudes. Um dos casos mais recentes envolve o Grok, ferramenta integrada à plataforma X, para remover digitalmente roupas de mulheres em fotos publicadas online. Em situações ainda mais graves, a prática tem sido aplicada a imagens de crianças, o que já configura crime previsto em lei.
Além disso, iniciativas de monitoramento já identificam a presença dessas dinâmicas no campo político. O Observatório IA nas Eleições mapeou, durante o pleito de 2024, casos de violência política de gênero envolvendo a circulação de deepnudes de candidatas, evidenciando como esse tipo de prática também pode ser mobilizada como instrumento de ataque e deslegitimação na esfera pública.
Para especialistas, se aprovada, a nova legislação pode ter impactos positivos, mas seus efeitos tendem a ser limitados se considerados isoladamente. “A lei não é bala de prata alguma. Nenhuma lei penal sozinha transforma a cultura, mas é um passo para que esse tipo de comportamento comece a ser desnaturalizado de alguma forma”, avalia Yasmin Curzi, professora da FGV Direito Rio e pesquisadora na Universidade da Virgínia (EUA).
Segundo ela, um dos impactos mais concretos pode estar na criação de parâmetros normativos que influenciem tanto a atuação do sistema de justiça quanto às políticas das plataformas digitais.
“A possibilidade de criação de um parâmetro normativo que as plataformas podem passar a invocar em suas políticas de moderação, assim como sua incorporação ao repertório jurídico de vítimas e organizações da sociedade civil, pode ampliar a pressão institucional sobre delegacias e o Ministério Público, que passarão a tratar o tema como discriminação direta”, afirma.
Qual o potencial para o ambiente digital?
Na avaliação de Yasmin Curzi, a nova previsão legal se insere em um arcabouço que vem sendo gradualmente construído para lidar com violências de gênero mediadas por tecnologia, especialmente diante do avanço de ferramentas de inteligência artificial. Ela destaca, por exemplo, a Lei 15.123/2025, que aumentou a pena para casos de violência psicológica contra a mulher quando há uso de IA, e a interpretação jurídica já consolidada de que deepnudes podem ser enquadrados como imagens íntimas não consentidas (NCII).
Esse entendimento tem sido aplicado com base no artigo 21 do Marco Civil da Internet, que prevê a responsabilização de plataformas pela não remoção, após notificação, de conteúdos íntimos divulgados sem consentimento. “A interpretação judicial de deepnudes tem olhado para esse dispositivo como parâmetro, permitindo às vítimas maior celeridade na remoção desse tipo de conteúdo”, explica a pesquisadora.
Apesar desses avanços, ela aponta lacunas importantes, sobretudo diante da escala e da sofisticação das novas tecnologias. “Permanecemos descobertas em relação a ferramentas de IA voltadas à produção e circulação desse tipo de conteúdo em escala massiva, muitas vezes por bots no Telegram e contas não identificadas”, afirma. Para ela, o debate precisa avançar para a responsabilização dos próprios sistemas que viabilizam essas práticas.
“É preciso exigir o desenvolvimento de filtros robustos para evitar que esse tipo de conteúdo seja criado sem consentimento do titular do direito de imagem e, sobretudo, banir qualquer sistema ou ferramenta que não se adeque a esse padrão. Não há justificativa plausível, quando fazemos uma análise de proporcionalidade, para a manutenção dessas ferramentas no ar”, defende. Nesse sentido, Curzi aponta que o Brasil pode se inspirar em discussões em curso na União Europeia sobre o banimento integral desse tipo de tecnologia.
Responsabilização de plataformas e dinâmicas coletivas de ódio
A inclusão da misoginia na Lei 7.716/1989 também tende a dialogar diretamente com outro artigo do Marco Civil da Internet sobre o regime de responsabilidade das plataformas. O artigo 19 da lei estabelece, originalmente, a responsabilização das plataformas apenas após descumprimento de ordem judicial para remoção de conteúdo. Esse entendimento, no entanto, vem sendo reinterpretado pelo Supremo Tribunal Federal (STF), que, ao julgar a constitucionalidade do dispositivo, fixou que as plataformas também têm o dever de atuar diante de riscos sistêmicos, mencionando explicitamente a violência contra mulheres como uma dessas hipóteses.
Para Curzi, a tipificação da misoginia reforça esse movimento. “Ao configurá-la como discriminação direta, cria-se uma base normativa para exigir políticas ativas de detecção e remoção, por parte das plataformas, de conteúdos que fomentem ódio ou aversão às mulheres”, afirma.
Esse ponto é especialmente relevante quando se observam dinâmicas coletivas de produção e disseminação de misoginia na internet, como em comunidades associadas à chamada cultura “red pill”. Nesses espaços, o discurso de ódio contra mulheres é frequentemente organizado, amplificado e monetizado de forma coordenada — o que, até então, esbarrava em limitações legais focadas na identificação de vítimas individuais.
Com a nova abordagem, abre-se espaço para discutir não apenas a responsabilização de indivíduos, mas também de administradores de grupos e estruturas que sustentam esse tipo de prática no ambiente digital.
Na prática, leis antidiscriminatórias funcionam no ambiente digital?
Se a lei da misoginia for aprovada, um dos principais desafios apontados é a dificuldade concreta de definir, na prática, o que configura esse tipo de discurso. “Há uma dificuldade concreta em delimitar esses contornos, algo que deverá ser construído jurisprudencialmente. Esse processo demanda tempo e um debate amplo, justamente para evitar tanto uma aplicação excessivamente abrangente quanto uma subcategorização que esvazie a proteção”, afirma Curzi.
Esse impasse, no entanto, não é novo. Ele já se manifesta na aplicação da própria Lei 7.716/1989 em casos de discriminação racial. Um estudo da Faculdade Baiana de Direito, em parceria com o Jusbrasil e o Programa das Nações Unidas para o Desenvolvimento (PNUD), analisou 107 acórdãos (decisões colegiadas de segunda instância) sobre injúria racial e racismo em redes sociais entre 2010 e 2022.
Os dados mostram que, entre 82 apelações, majoritariamente de natureza penal, 83,6% resultaram em condenação. Ao mesmo tempo, revelam limites importantes: nenhum dos réus foi condenado em regime fechado, e as penas aplicadas tendem a se aproximar do mínimo legal, com média de 16,4 meses nos casos de injúria racial.
LEIA TAMBÉM >> Escalada do racismo online no Brasil: estudo revela perfil de vítimas e agressores
O próprio estudo aponta que, apesar do aumento das condenações, ainda há falhas na garantia de direitos das vítimas, seja pela baixa efetividade das sanções, seja pela dificuldade de enquadramento das condutas.
A experiência com os crimes de racismo e injúria racial indica que o impacto da possível tipificação da misoginia dependerá, sobretudo, de como a lei será interpretada e aplicada ao longo do tempo – tanto pelo Judiciário quanto pelas plataformas.
Desinformação também disputa os rumos do projeto
Enquanto avança no Congresso, o projeto que tipifica a misoginia também tem sido alvo de uma disputa narrativa nas redes sociais, marcada pela circulação de desinformação, inclusive impulsionada por atores políticos que já sinalizam resistência à proposta na Câmara dos Deputados.
Uma das principais distorções envolve o próprio conteúdo do texto. Segundo checagem do Aos Fatos, publicações passaram a compartilhar trechos que não pertencem ao PL 896/2023, mas a outro projeto da mesma autora, já arquivado. Ainda assim, o material foi difundido como se integrasse a proposta aprovada pelo Senado.
Reportagem do UOL mostra que esse tipo de conteúdo tem sido mobilizado por parlamentares contrários ao projeto, que argumentam que a medida poderia gerar censura ou restrições à liberdade de expressão ou que a lei poderia criminalizar interações cotidianas. Conteúdos gerados com uso de inteligência artificial também têm sido utilizados para reforçar essas narrativas distorcidas, ampliando seu alcance e dificultando a identificação de sua origem.
Do ponto de vista jurídico, esse risco não se sustenta, segundo Yasmin Curzi. “A leitura do próprio texto do PL dissolve a controvérsia. Não há no texto qualquer tipo penal que alcance opinião, crítica, discordância ou manifestação religiosa enquanto tais, que são discursos protegidos constitucionalmente”, afirma. A proposta, explica, se restringe à tipificação de condutas que envolvam prática, indução ou incitação à discriminação por misoginia.
Esse cenário dialoga com um padrão já observado em outras pautas acompanhadas pelo *desinformante. Especialistas têm apontado como campanhas de desinformação vêm impactando tanto a tramitação de projetos de lei quanto sua efetiva implementação após a aprovação, como ocorre neste momento no debate sobre o chamado “ECA Digital” e, anteriormente, em discussões envolvendo o PIX.
