O jornal Chicago Sun-Times, dos EUA, errou feio ao usar a IA (inteligência artificial) generativa em sua produção: no último domingo (18), o veículo publicou uma lista de livros para serem lidos no verão americano formada por títulos inexistentes de autores reais e conhecidos, mas que jamais escreveram aquelas obras. 

A falha só foi percebida após a circulação do suplemento, gerando forte repercussão nas redes sociais. Na terça-feira (20), o jornal reconheceu o erro e pediu desculpas públicas aos leitores. 

O episódio tornou-se mais um caso emblemático de como o uso descuidado da IA pode comprometer a credibilidade de veículos jornalísticos quando a tecnologia “alucina”, como é chamado esse comportamento, e fornece informações falsas ou distorcidas. 

Como a IA criou constrangimento para o jornal dos EUA

A lista foi produzida por um freelancer, Marco Buscaglia, e distribuída por uma agência de conteúdo vinculada ao grupo editorial Hearst.

A matéria foi publicada no caderno dominical sem passar pela revisão da equipe editorial do Sun-Times, segundo o jornal. 

Entre os títulos falsos de livros estão Hurricane Season de Brit Bennett, Nightshade Market de Min Jin Lee, The Longest Day de Rumaan Alam, Boiling Point de Rebecca Makkai, Migrations de Maggie O’Farrell e The Rainmakers de Percival Everett.

Os autores existem, mas não os livros a eles atribuídos. O artigo chega a sugerir motivos pelos quais os leitores iriam gostar da recomendação.

O uso da IA para compor sugestões literárias teria sido feito pelo próprio redator, sem validação humana.

O problema não se limitou aos livros.

Também foram citados no suplemento “especialistas” sobre assuntos diversos aparentemente inexistentes, como a Dra. Jennifer Campos, suposta professora de estudos de lazer da Universidade do Colorado, e a Dra. Catherine Furst, apresentada como antropóloga alimentar da Universidade de Cornell.

Nenhuma dessas pessoas ou cargos pôde ser verificada, e as universidades negaram qualquer vínculo com os nomes mencionados, segundo a mídia americana. 

O que disse o Chicago Sun-Times

Após o erro começar a ser apontado em posts nas redes sociais, o jornal divulgou uma nota admitindo a falha. 

“Para nossa grande decepção, essa lista foi criada com o uso de uma ferramenta de IA listando livros recomendados que não existem”. 

O comunicado explica que a King Features, fornecedora do conteúdo, informou que trabalhou com um freelancer que usou um agente de IA para ajudar a construir esta seção especial.

“Foi inserido em nosso suplemento sem revisão de nossa equipe editorial, e apresentamos a seção sem qualquer reconhecimento de que era de uma organização terceirizada”. 

Autor que errou usando a IA diz que não teve intenção de enganar

O próprio Buscaglia comentou o erro que cometeu no jornal de Chicago para a mídia americana dizendo que “não teve a intenção de enganar”, e que usou IA como ferramenta de apoio.

“Foi uma tentativa de agilizar o trabalho. Assumo a responsabilidade por não ter conferido os dados”, disse.

Segundo ele, a lista foi escrita em parte com ajuda da ferramenta Claude AI, mas ele admite que falhou em revisar e confirmar as sugestões antes do envio.

A Claude AI é a assistente de inteligência artificial (IA) da Anthropic, uma startup fundada por antigos membros da OpenAI, dona do ChatGPT. 

O risco de erros automatizados no jornalismo

Após o erro do jornal, leitores e jornalistas voltaram a apontar o perigo do uso irrestrito de tecnologias generativas no jornalismo. Para muitos, o incidente reforça a necessidade de supervisão humana em todas as etapas da produção editorial.

O próprio Chicago Sun-Times reforçou isso em seu comunicado: 

“Estamos em um momento de grande transformação no jornalismo e na tecnologia e, ao mesmo tempo, nossa indústria continua a ser cercada por desafios nos negócios.

Este deve ser um momento de aprendizado para todas as organizações jornalísticas: Nosso trabalho é valorizado — e valioso — por causa da humanidade por trás dele”. 

O caso não é isolado. Outros episódios recentes mostram como o uso mal calibrado da IA pode induzir ao erro ou à desinformação, especialmente quando há confiança excessiva em sistemas automatizados para agilizar a produção ou eliminar postos de trabalho. 

Em abril, um grande jornal dos EUA publicou um obituário com dados fictícios gerados por IA. No Canadá, uma resenha de livro escrita por algoritmo foi ao ar sem verificação, gerando protestos de leitores.

Na revista Sports Ilustrated, um erro semelhante ao do Chicago Sun-Times custou em 2024 o cargo de seu principal executivo. 

IA exige uso ético e responsabilidade editorial

Apesar dos riscos, especialistas reforçam que a inteligência artificial pode ser uma aliada importante no jornalismo, desde que usada com responsabilidade.

A ferramenta tem se mostrado útil para transcrever entrevistas, sugerir pautas, auxiliar na organização de dados e até em investigações jornalísticas, permitindo analisar volumes enormes de dados. 

Mas o episódio do Sun-Times serve de alerta para redobrada cautela, sobretudo quando a automação entra em áreas sensíveis como recomendações culturais ou perfis públicos.

Segundo o próprio jornal, que se tornou uma organização sem fins lucrativos em 2022, a prioridade agora é reconquistar a confiança de seus leitores.

O caso já entrou na agenda de debates sobre o futuro do jornalismo com IA e os limites da automação na produção de conteúdo informativo.

[jms-related-posts ids=”91216″