Ícone do site MediaTalks em UOL

Dá para confiar na IA para notícias? Pesquisa da União Europeia de Radiodifusão e CEO do Google acham que não

Smartphone com ícones da DeepSeek e outras ferramentas de inteligência artificial generativa

Foto: Soleyn Feyissa / Unsplash

Os buscadores que oferecem resumos feitos por IA ou os chatbots como o ChatGPT não estão apenas afetando a já abalada sustentabilidade financeira da imprensa ao deixar de exibir links para o conteúdo, mas também comprometendo a qualidade da informação – e em consequência, a confiança na própria tecnologia.

É o que revela uma investigação da União Europeia de Radiodifusão (EBU), que reúne as emissoras de serviço público na região.

Coordenado pela BBC, o levantamento constatou que os assistentes de IA deturpam rotineiramente o conteúdo das notícias não importa qual idioma, país ou plataforma testada, com erros em 45% dos resultados.

O resultado não é novidade para quem usa chatboots ou buscas por  IA e frequentemente se depara com respostas absurdas, mas que muitas vezes passam despercebidas se o leitor não é familiarizado com o tema ou está desatento.

Confiança na IA é questionada até por chefões das plataformas

E essa não é apenas a visão de um punhado de chatos refratários a novas tecnologias ou jornalistas com medo de perder o emprego para as máquinas. É também dos próprios chefões das plataformas de IA ou que estão adotando a IA em sua oferta aos usuários.

Em uma entrevista à BBC publicada nesta terça-feira,  o CEO do Google, Sundai Pichai, foi honesto e aconselhou:

“Não confie cegamente no que a IA diz.”

Ele também sugeriu que ela seja usada junto com outras ferramentas – incluindo naturalmente a pesquisa do Google, que ironicamente agora usa a IA, a mesma da qual ele diz que devemos desconfiar.

O que Pichai  afirma é o que a pesquisa da EBC e outras mostram: uma proliferação de conteúdo errado, induzindo usuários a decisões erradas sobre suas finanças, saúde e até viagens, ou perigoso, como incitamento ao suicídio.

As constatações preocupam não apenas pelo aspecto do impacto social, mas também pelo risco cada vez mais temido de a bolha da IA estourar e afetar mercados, o que não é impossível se os aportes de investidores não forem recompensados na forma de lucros. 

Para isso, é necessário confiança dos usuários. Mas não é fácil confiar em uma fonte de notícias que, segundo a pesquisa da EBC, falha em quase metade das respostas considerando métricas básicas para o jornalismo como precisão, clareza da fonte, distinção entre opinião de fato e fornecimento de contexto.

Pesquisa da EBU analisou notícias nas principais IAs

Para chegar aos resultados, jornalistas profissionais de empresas de mídia afiliadas à EBU avaliaram mais de 3 mil respostas do ChatGPT, Copilot, Gemini e Perplexity em relação ao conjunto de métricas que formam os fundamentos do bom jornalismo.

O Gemini, do Google,  teve o pior desempenho, com problemas significativos em 76% das respostas, mais do que o dobro dos outros chatbots pesquisados.

A comparação entre os resultados obtidos pela análise feita somente pela BBC no início deste ano e o estudo que envolveu os demais mercados mostra algumas melhorias, mas ainda constatou altos níveis de erros.

Por que essa distorção importa

Os assistentes de IA já estão substituindo os mecanismos de pesquisa de muitos usuários. De acordo com o Digital News Report 2025 do Reuters Institute, 7% do total de consumidores de notícias online usam assistentes de IA para obter suas notícias, subindo para 15% entre pessoas abaixo de 25 anos.

‘Esta pesquisa mostra conclusivamente que essas falhas não são incidentes isolados,’ disse o Diretor de Mídia e Diretor Geral Adjunto da EBU, Jean Philip De Tender.

‘Eles são sistêmicos, transfronteiriços e multilíngues, e acreditamos que isso põe em perigo a confiança do público. Quando as pessoas não sabem em que confiar, acabam por não confiar em nada, e isso pode dissuadir a participação democrática.’

Peter Archer, diretor de programas da BBC, Generative AI, reconhece os benefícios da tecnologia para o ecossistema de notícias, mas salienta os riscos:

 “As pessoas devem ser capazes de confiar no que lêem, observam e veem. Apesar de algumas melhorias, é evidente que ainda existem questionamentos significativos a respeito dessas ferramentas.

Queremos que elas sejam bem-sucedidas e estamos abertos a trabalhar com empresas de IA para oferecer resultados ao usuários e à sociedade em geral.”

O relatório completo pode ser visto aqui.

Sair da versão mobile