A Inteligência Artificial (IA) está ubíqua em nossa sociedade. Sistemas de IA compõem desde sistemas simples, como eletrodomésticos, até avançados sistemas de diagnósticos médicos. Recentemente, o pesquisador Andrew Ng, um dos grandes nomes da área de inteligência artificial e aprendizado de máquina, relacionou a amplitude dos impactos da IA às mudanças observadas com o advento da energia elétrica há mais de 100 anos. Em suma, as transformações em nosso modo de vida e em nossa sociedade estão sendo e serão fortemente impactadas por sistemas de IA.
Alguns exemplos cotidianos de IA que podem ser encontrados em nossos próprios dispositivos celulares são: tradução automática, transcrição de sinais, reconhecimento de fala, classificação de imagens, sistemas de recomendação, sugestão de notícias, dentre outros. Contudo, essa mesma IA que nos auxilia em tarefas fundamentais pode ser utilizada de forma patológica, por exemplo, na propagação de fake news e desinformação em mídias sociais.
Esses ataques de desinformação assistidos por IA podem ser disruptivos devido a sua rápida e ampla propagação. Dessa forma, diversas redes sociais, como Facebook, Twitter e Instagram, têm usado ferramentas de IA e processamento de linguagem natural para combater o crescimento exponencial de desinformação transmitida em suas plataformas. Por exemplo, sistemas de IA podem ser usados para definir a credibilidade de uma dada notícia publicada num post. Essa credibilidade pode ser validada a partir da origem da informação (usuário), da rede de interações do usuário e a partir do próprio conteúdo da mensagem transmitida.
Entretanto, conhecendo os mecanismos usados pela plataforma, grupos maliciosos podem aplicar técnicas inversas para burlar os respectivos sistemas. Nesse contexto, diversas abordagens com os mais variados níveis de sofisticação têm sido empregadas. Por exemplo, para persuadir sistemas de moderação e de validação de conteúdo, rotinas de camouglage são utilizadas na transformação do texto, no qual letras ou sílabas específicas são substituídas dentro da mensagem, por exemplo, a letra “A” pelo número 4, como em V4CIN4. Embora simples, essa abordagem permite que textos indesejáveis numa sociedade democrática continuem sendo amplamente difundidos.
Esse cenário pode ser agravado ao se utilizar textos embutidos em imagens, tornando seu reconhecimento cada vez mais difícil. Mesmo considerando que os sistemas atuais de reconhecimento de texto (OCR ou optical character recognition, em inglês) baseados em redes neurais profundas são altamente acurados, há falhas que são constantemente exploradas por esses grupos de desinformação. Por exemplo, os sistemas de classificação e reconhecimento de padrões sofrem com os denominados exemplos adversariais. Tais exemplos consistem em pequenas alterações introduzidas no padrão visual para enganar o sistema de IA. É importante destacar que essas alterações podem ser imperceptíveis para o observador humano e desastrosas para o sistema de IA.
O antagonismo da IA no combate às fake news também pode ser realçado com o uso da denominada deepfake. Técnicas recentes de IA, como Autoencoders Variacionais (VAEs) e Redes Adversárias Generativas (GANs) têm sido empregadas na geração e modificação de imagens e vídeos de tal forma a persuadir o observador. Por exemplo, faces humanas podem ser automaticamente geradas por redes neurais a fim de criar e alimentar batalhões de perfis falsos em redes sociais. No mesmo sentido, vídeos realistas mimetizando autoridades, como figuras políticas importantes, podem ser artificialmente construídos utilizando as mesmas técnicas. Ou seja, a IA pode fazer com que a desinformação, que antes era transmitida a partir de texto, como um simples tuíte, possa vir na forma de um pronunciamento falso de uma autoridade com o mero objetivo de manipular a opinião pública.
Considerando o uso de deepfake e sistemas avançados de IA para reconhecimento de fala, interpretação de conteúdo e síntese de voz, podemos trazer à tona o clássico Teste de Turing proposto por Alan Turing em 1950, no qual é dito que uma máquina possui comportamento inteligente se ela for capaz de persuadir um entrevistador humano. De fato, estamos bastante próximos deste cenário no qual teremos dificuldade para distinguir o que é falso do que é real.
No fim das contas, vivemos numa guerra contra a desinformação e a tecnologia é usada por ambos os lados. Quem vencerá?