Os buscadores que oferecem resumos feitos por IA, ou os chatbots como o ChatGPT, estão afetando negativamente a já abalada sustentabilidade financeira da imprensa não apenas ao deixar de exibir links para o conteúdo, mas também ao comprometer a qualidade da informação – e, em consequência, a confiança na própria tecnologia.
É o que revela uma investigação da União Europeia de Radiodifusão (EBU), que reúne as emissoras de serviço público na região.
Coordenado pela BBC, o levantamento constatou que os assistentes de IA deturpam rotineiramente o conteúdo das notícias, não importando o idioma, o país ou a plataforma testados, com erros em 45% dos resultados.
O resultado não é novidade para quem usa chatboots ou buscas por IA e frequentemente se depara com respostas absurdas, mas que muitas vezes passam despercebidas se o leitor não é familiarizado com o tema ou está desatento.
Confiança na IA é questionada até por chefões das plataformas
Essa não é apenas a visão de um punhado de jornalistas refratários a novas tecnologias ou com medo de perder o emprego para as máquinas. É também dos próprios chefões das plataformas que estão adotando a IA em sua oferta de notícias aos usuários.
Em uma entrevista à BBC na semana passada, o CEO do Google, Sundai Pichai, foi honesto e aconselhou:
“Não confie cegamente no que a IA diz.”
Pichai também sugeriu que a IA seja usada junto com outras ferramentas – incluindo a pesquisa do Google, que ironicamente agora usa a mesma tecnologia da qual ele diz que devemos desconfiar.
O chefão do Google admite o que a pesquisa da EBC e outras demonstram: uma proliferação de conteúdo que induzem os usuários a decisões erradas sobre suas finanças, trabalho ou viagens, e até nocivas á saúde, como o
incitamento ao suicídio.
Leia também | Mais de 1,2 milhão de pessoas falam com ChatGPT sobre suicídio por semana, diz OpenAI
As constatações preocupam não apenas pelo impacto social, mas também pelo financeiro, pois aumentam a preocupação com o risco de a bolha de IA estourar e afetar os mercados, se os aportes de investidores não forem recompensados com os lucros esperados.
Para garantir o retorno, é essencial a confiança dos usuários. Mas não é fácil confiar em uma fonte de notícias que, segundo a pesquisa da EBC, falha em quase metade das respostas, considerando métricas que avaliam fundamentos básicos do bom jornalismo como precisão, identificação da fonte, fornecimento de contexto e distinção entre opinião e fato.
Pesquisa da EBU analisou notícias nas principais IAs
Para chegar aos resultados, jornalistas profissionais de empresas de mídia afiliadas à EBU avaliaram mais de 3 mil respostas do ChatGPT, Copilot, Gemini e Perplexity em relação ao conjunto de métricas que formam os fundamentos do bom jornalismo.
- 45% das respostas apresentaram pelo menos um problema considerado significativo;
- 31% das respostas mostraram sérios problemas de fontes – atribuições ausentes, enganosas ou incorretas;
- 20% continham grandes problemas de precisão, incluindo fatos “alucinados” e informações desatualizada
O Gemini, do Google, teve o pior desempenho, com problemas significativos em 76% das respostas, mais do que o dobro dos outros chatbots pesquisados.
A comparação entre os resultados obtidos pela análise feita somente pela BBC no início deste ano e o estudo que envolveu os demais mercados mostra algumas melhorias, mas ainda constatou altos níveis de erros.
Por que essa distorção importa
Os assistentes de IA já estão substituindo os mecanismos de pesquisa de muitos usuários. De acordo com o Digital News Report 2025 do Reuters Institute, 7% do total de consumidores de notícias online usam assistentes de IA para obter suas notícias, subindo para 15% entre pessoas abaixo de 25 anos.
‘Esta pesquisa mostra conclusivamente que essas falhas não são incidentes isolados,’ disse o Diretor de Mídia e Diretor Geral Adjunto da EBU, Jean Philip De Tender.
‘Eles são sistêmicos, transfronteiriços e multilíngues, e acreditamos que isso põe em perigo a confiança do público. Quando as pessoas não sabem no que confiar, acabam por não confiar em nada, e isso pode dissuadir a participação democrática.’
Peter Archer, diretor de programas da BBC, Generative AI, reconhece os benefícios da tecnologia para o ecossistema de notícias, mas salienta os riscos:
“As pessoas devem ser capazes de confiar no que leem, observam e veem. Apesar de algumas melhorias, é evidente que ainda existem questionamentos significativos a respeito dessas ferramentas.
Queremos que elas sejam bem-sucedidas e estamos abertos a trabalhar com empresas de IA para oferecer resultados aos usuários e à sociedade em geral.”
O relatório completo pode ser visto aqui.
Leia também | BBC encara Trump e descarta acordo para evitar processo de difamação: ‘determinada a lutar’
Leia também | Quase ninguém percebe quando uma música é feita por IA – e a maioria das pessoas se incomoda com isso, mostra pesquisa
Leia também | É mesmo possível conversar com quem já morreu ? Especialistas testaram ‘chatbots da morte” feitos com IA
Leia também | Educado com o ChatGPT? Para conseguir respostas boas, melhor ser rude, diz pesquisa
Leia também | Getty perde processo contra empresa de IA em Londres por direitos autorais sobre uso de suas imagens
Leia também | Metade dos brasileiros está mais preocupada do que animada com IA, aponta pesquisa em 25 países






