O boom do ChatGPT e de outras ferramentas de inteligência artificial generativa trouxe novas possibilidades e desafios para o jornalismo. Na semana passada, a Associated Press divulgou diretrizes para o uso da tecnologia ao mesmo tempo que o The New York Times bloqueou o “rastreador da Web” da OpenAI, proibindo a empresa de utilizar o conteúdo do jornal para treinar modelos de IA.
O uso da IA pelo jornalismo, no entanto, não surge agora. Um relatório produzido pelo Observatório de Comunicação de Lisboa em 2021 mostra que, apesar de ser incipiente na época, os jornalistas já utilizavam a tecnologia para tarefas básicas, como a indexação e etiquetagem de conteúdo, transcrição de entrevistas, tradução, análise de grandes bases de dados, extração de dados e identificação de tendências e eventos nas redes sociais.
No estudo realizado, o OberCom destaca o desenvolvimento de sistemas de IA por parte dos veículos de comunicação que iam desde tagueamento de fotos no sistema até otimização de serviços de paywall. Também cita iniciativas que utilizavam IA até para a produção de notícias, como o Radar, sistema da The Press Association no Reino Unido, que permite escrever peças locais extraindo informação de uma base de dados, podendo gerar 300 a 400 variações de uma notícia.
Dois anos depois da pesquisa, com o boom das IAs generativas, uma pesquisa da World Association of News Publishers indicou que 70% das redações jornalísticas acreditam que a inteligência artificial é uma importante ferramenta para os jornalistas e 49% já utilizam a tecnologia no dia a dia. Sobre os usos dessas ferramentas, os jornalistas disseram utilizar para a criação de resumos (54%), para pesquisas (44%), para a eficiência do fluxo de trabalho (43%) e para a correção de textos (43%). Apesar de menor, 32% dos respondentes disseram utilizar para a criação de conteúdo.
“A IA generativa tem muitos usos para o jornalismo, um deles é ajudar a trazer mais concisão para algum texto, achar sinônimos. Eu gosto de usar muito a IA generativa como um lugar para melhorar minha escrita, obviamente a gente não usa para todas as finalidades, muito menos para produzir textos inteiros, mas em geral a gente pega um texto que a gente está insatisfeito e pede para melhorar e muitas vezes o resultado é satisfatório, pode trazer mais clareza”, afirma Sérgio Spagnuolo, diretor-executivo do Núcleo Jornalismo. “Em geral pode ser uma boa ferramenta de edição, também pode ser uma boa ferramenta de ideação, buscar ideias, inspirações, sempre tomando cuidado com a qualidade da informação”, acrescenta.
Spagnuolo ainda destaca que um dos usos mais intensos da IA generativa pela sua equipe é para tirar dúvidas técnicas sobre programação e desenvolvimento de código, uma prática comum também entre programadores. O jornalista acredita que um dos maiores riscos é o uso sem revisão, visto que essas ferramentas nem sempre agregam informações confiáveis.
Quais as diretrizes para o uso de IA pelo jornalismo?
A pesquisa da World Association of News Publishers indicou que, mesmo com metade das redações utilizando ferramentas de inteligência artificial generativa, apenas 20% das redações possuem diretrizes específicas para o uso dessa tecnologia. “Claramente, não parece haver uma abordagem uniforme de como as redações estão aplicando o uso de ferramentas de IA generativa, já que os jornalistas têm a liberdade de usá-las como bem entenderem, de acordo com quase metade dos participantes pesquisados”, destacou o relatório.
No Brasil, o Núcleo Jornalismo foi o primeiro – e até agora único – veículo a publicar uma política específica sobre o uso de inteligência artificial em sua redação. Em maio deste ano, o site criou uma série de parâmetros para guiar o uso de IA, tanto no conteúdo, como também nas aplicações que são criadas pela equipe. A publicação frisa que essa política pode ser atualizada, visto que está em constante evolução.
Em entrevista ao *desinformante, o diretor-executivo do veículo disse que as diretrizes sobre o uso de IA foram inspiradas em publicações de veículos internacionais sobre o tema. “A gente começou a usar e falamos que temos que ser transparentes em relação ao uso que estamos fazendo. É uma diretriz de uso mesmo, a gente não precisa usar a inteligência artificial de uma maneira obscura, a gente pode falar como estamos fazendo isso”, explica Spagnuolo.
De modo geral, o Núcleo informa que a IA deve ser utilizada para facilitar o trabalho e não para produzi-lo. “Para o Núcleo, produtos de inteligência artificial são ferramentas – tais como nossos laptops ou canetas – e devem ser utilizadas como tal, não como substitutos a nossos profissionais”, destaca a empresa. Assim, o site enumera o que pode e o que não pode ser realizado dentro da redação. Por exemplo, a IA generativa pode ser utilizada para construir sumários de textos, sugerir posts alternativos para redes sociais e pesquisar assuntos e temas, mas nunca será empregada para gerar conteúdo completo de uma publicação ou como editor ou produtor final de uma publicação.
Parâmetros parecidos foram utilizados pelo veículo de tecnologia Wired. O site estadunidense publicou os usos aceitáveis de ferramentas de IA generativa. O site compromete-se a não publicar histórias geradas ou editadas por essas ferramentas, mas diz que pode utilizar para pesquisa e geração de ideias. O uso de imagens geradas por IA também é explicitado dentro das políticas, limitando os momentos em que elas poderão ser publicadas.
A Associated Press, uma das maiores agências de notícias do mundo, também divulgou seus parâmetros após firmar um contrato de licenciamento com a OpenAI, empresa criadora do ChatGPT. Amanda Barret, vice-presidente de Padrões e Inclusão da AP, disse que, apesar dessa parceria, a equipe não pode usar a ferramenta para criar conteúdo publicável. “Qualquer saída de uma ferramenta de IA generativa deve ser tratada como material de origem não verificado. A equipe da AP deve aplicar seu julgamento editorial e os padrões de fornecimento da AP ao considerar qualquer informação para publicação”, disse a executiva em comunicado.
Em busca de sistematizar as diretrizes já publicadas sobre o tema, os pesquisadores Hannes Cools (University of Amsterdam) e Nicholas Diakopoulos (Northwestern University) analisaram parâmetros para o uso de IA publicados por 21 organizações jornalísticas na Europa, América do Sul, Ásia e América do Norte. Os investigadores condensaram as normas e encontraram dez categorias que se replicam em maior ou menor intensidade pelos veículos analisados. São elas:
Supervisão – Ênfase na importância do envolvimento humano supervisionando o uso da IA, como na exigência da verificação dos fatos e da edição antes de publicação;
Transparência – O conteúdo deve ser rotulado para que o público entenda que se trata de material gerado por IA;
Usos proibidos ou permitidos – São frequentemente listados pelos veículos para orientar as práticas, embora, às vezes, também sejam acompanhados de exceções.
Prestação de contas e responsabilidade – Onde os sites pontuam suas responsabilidades sobre os conteúdos publicados.
Privacidade e confidencialidade – Mencionam a proteção de fonte e cuidado ao fornecer informações confidenciais para plataformas externas.
Experimentação cautelosa – Onde reconhecem os riscos de desinformação, mas destacam o potencial de inovação.
Intenção do uso estratégico – Elencam os motivos para o uso, como originalidade, qualidade e velocidade.
Treinamento – Raramente mencionado pelos veículos, trata da formação dos jornalistas em prol da mitigação dos riscos.
Viés – Onde são pontuados os cuidados que se deve ter em relação aos vieses algorítmicos.
Adaptabilidade das diretrizes – Incluem a possibilidade de mudanças rápidas e chamam a atenção para “a importância de adaptar essas regras à medida que a compreensão dos riscos evolui”.
Os autores destacam que questões como a conformidade legal, a personalização, a qualidade dos dados, o feedback do usuário e a integração da IA generativa na cadeia de produção raramente são mencionadas nas diretrizes analisadas. Como recomendações, os pesquisadores indicam que os veículos que querem estabelecer diretrizes para o uso da inteligência artificial generativa devem revisar as diretrizes e códigos éticos existentes, precisam adotar uma abordagem para avaliação de riscos e estabelecer um grupo diverso para a elaboração desses parâmetros.