© Conteúdo protegido por direitos autorais

Inteligência artificial

De onde vêm as notícias citadas pelas IAs? Estudo propõe ‘rótulo nutricional’ para expor fontes usadas pelos chatbots

Relatório britânico alerta para concentração de veículos nas respostas de IA e defende mais transparência sobre a origem das informações

Smartphone com ícones da DeepSeek e outras ferramentas de inteligência artificial generativa

Foto: Soleyn Feyissa / Unsplash



Um estudo britânico analisou as fontes usadas por chatbots de inteligência artificial em respostas sobre notícias e revelou concentração em poucos veículos, como o Guardian. A BBC é ignorada por ferramentas populares.


A inteligência artificial está se tornando a nova porta de entrada para o consumo de notícias no mundo, mas as escolhas que os sistemas fazem sobre quais fontes são usadas e citadas ainda são pouco transparentes, alerta um novo estudo do think tank britânico Institute for Public Policy Research (IPPR), que apontou o The Guardian como a fonte mais mencionada.

O levantamento revelou que ferramentas como ChatGPT e Gemini favorecem alguns veículos em detrimento de outros, ignorando até mesmo a BBC — considerada a fonte mais confiável do Reino Unido.

A proposta dos pesquisadores é ousada: implementar um “rótulo nutricional” nas respostas de IA, indicando de forma clara de onde veio a informação. E impor regras para evitar o favorecimento por razões diversas, incluindo a existência de acordos de licenciamento do conteúdo com algumas empresas jornalísticas.

Critérios pouco transparentes para fontes usadas pela inteligência artificial

Segundo o relatório “AI’s got news for you”, a inteligência artificial redesenhou silenciosamente o ecossistema informativo. Já são 2 bilhões de usuários mensais expostos às respostas do Google AI Overviews, e 24% das pessoas utilizam chatbots de IA semanalmente para buscar informação.

A pesquisa analisou 100 consultas sobre temas jornalísticos feitas a quatro ferramentas de IA — ChatGPT, Gemini, Perplexity e Google AI Overviews — e mapeou mais de 2,5 mil links.

O resultado foi revelador: uma única fonte jornalística, o jornal The Guardian, respondeu por 34% de todas as citações, e cada ferramenta demonstrou forte tendência a priorizar um único veículo.

O Guardian, que tem acordo comercial com a OpenAI, foi citado em 58% das respostas do ChatGPT. A Reuters e o Independent também tiveram destaque.

Já a BBC, apesar de ser a fonte mais confiável e popular do Reino Unido, foi completamente ignorada pelo ChatGPT e pelo Gemini — embora apareça em 52% das respostas do Google AI Overviews.

O impacto na diversidade informativa e na sustentabilidade do jornalismo

A concentração de fontes e a falta de clareza sobre os critérios de seleção preocupam os pesquisadores.

Para o IPPR, essa “editorialização invisível” está criando uma nova geração de vencedores e perdedores no ecossistema informativo, o que pode limitar o acesso do público a diferentes perspectivas e agendas.

Essa dinâmica também ameaça a sustentabilidade financeira do jornalismo. Ferramentas de IA como o Google AI Overviews já impactam diretamente o tráfego para os sites de notícias.

Usuários tendem a clicar quase duas vezes mais em links quando a resposta automática da IA não está presente, segundo o estudo. Outros sistemas ainda não têm o mesmo efeito, mas a tendência é semelhante.

Além disso, os acordos de licenciamento entre empresas de IA e veículos de mídia beneficiam principalmente os maiores grupos editoriais. Pequenos e médios veículos — especialmente os locais — ficam de fora, aumentando a dependência do setor jornalístico em relação às big techs.

Para Roa Powell, pesquisador sênior do IPPR, a fonte de notícias mais confiável do Reino Unido desaparecendo completamente das respostas da IA, é um sinal de alerta.

“Se as empresas de IA vão lucrar com o jornalismo e moldar o que o público vê, elas devem ser obrigadas a pagar de forma justa pelas notícias que usam e operam sob regras claras que protegem a pluralidade, a confiança e o futuro do jornalismo independente.”

Propostas para tornar a Inteligência artificial mais justa e transparente

O IPPR sustenta que esse cenário não é inevitável e defende uma ação coordenada para redirecionar o uso da inteligência artificial no jornalismo. Três metas principais são propostas:

  1. Melhorar a IA como interface para notícias, com a implementação de “rótulos nutricionais” que tornem transparentes as fontes utilizadas e deem ao público mais controle sobre a curadoria das respostas.
  2. Criar um mercado de licenciamento justo, com atuação de autoridades como a Competition and Markets Authority (CMA), garantindo negociações equilibradas com empresas de tecnologia e proteção ao direito autoral.
  3. Reduzir a dependência das big techs, com incentivo a novos modelos de negócios e apoio público ao jornalismo local e independente, além do fortalecimento de instituições como a BBC no uso da IA.

O relatório afirma que, diante da crise de confiança nas instituições, do aumento da desinformação e da baixa alfabetização midiática, é urgente tornar a inteligência artificial uma aliada da democracia — e não apenas mais uma camada opaca no acesso à informação.

O relatório completo pode ser visto aqui.

error: O conteúdo é protegido.